Ciencia y Tecnología

Google también espía desde casa

Google ha reconocido que sus empleados escuchan el 0,2% de las conversaciones que tienen los usuarios con el altavoz inteligente, con el fin de que sepa reconocer los distintos idiomas. Una violación de la intimidad que sufren los ciudadanos a cambio de obtener distintos servicios.

Google también espía desde casa
Google también espía desde casalarazon

Google ha reconocido que sus empleados escuchan el 0,2% de las conversaciones que tienen los usuarios con el altavoz inteligente, con el fin de que sepa reconocer los distintos idiomas. Una violación de la intimidad que sufren los ciudadanos a cambio de obtener distintos servicios.

Solo en 2018, a nivel mundial, se vendieron más de 200 millones de altavoces inteligentes, según un estudio de Strategy Analytics, más del triple que en 2016. A medida que los asistentes de voz se convierten en una parte más de nuestra vida cotidiana, se producen dos fenómenos simultáneos. Por un lado hay un mayor control sobre cómo las empresas de tecnología (Google, Amazon, Baidu, Apple, AliBaba y Xiaomi, por nombrar algunas) manejan la información que obtienen de las grabaciones que hacen quienes tienen acceso a ellas. El otro fenómeno está más vinculado a los usuarios: cada día somos más conscientes de cuánto obtenemos de servicios y cuánto damos de privacidad a cambio.

Esta semana se ha desatado un nuevo problema vinculado a esta privacidad. Todo comenzó cuando un medio de comunicación belga (VRT NWS) informó que terceras empresas, asociadas a Google, tuvieron acceso a las grabaciones de voz de Google Assistant. Se trata de algo similar al «affaire» que vivieron Facebook y Google Analytics unos años atrás con los datos personales de millones de personas. Solo que en este caso se trata de grabaciones que contenían información confidencial, como direcciones, conversaciones entre padres e hijos, llamadas de negocios y otras que contienen todos tipo de información privada. En total, los periodistas belgas tuvieron acceso a más de 1.000 grabaciones. De ellas 153 eran lo que podríamos llamar con benevolencia «accidentales», es decir, ocasiones en las que el usuario del altavoz no había tenido la intención de pedir la ayuda de Google. Además, el informe encontró que a menudo era posible determinar la identidad de un usuario porque las grabaciones en sí revelaban detalles personales. Otras, en cambio, contenían información muy sensible y más privada aún, como conversaciones de pareja, consultas médicas o personas en situaciones de violencia doméstica, solo por nombrar algunas de las señaladas por los periodistas.

Para explicar lo sucedido, Google ha publicado un post en el que señala que habitualmente se asocia con expertos en idiomas de todo el mundo que revisan y transcriben un «pequeño conjunto de consultas» para ayudar a Google a comprender mejor decenas de idiomas. El artículo, firmado por David Monsees, gerente de producto de Google, afirma que solo un 0,2% de todos los fragmentos de audio son revisados por expertos en idiomas, y que no están asociados con cuentas de Google durante el proceso de revisión. Es decir, se escucha el contenido pero no se sabe quién lo ha dicho, según afirma Monsees, contradiciendo la información de los periodistas belgas.

¿Para qué necesita Google expertos en idiomas en sus altavoces inteligentes? Lo que hace que esta tecnología sea inteligente no es tanto su capacidad para responder preguntas o conectarse a la red, sino su habilidad para aprender. Y para ello es imprescindible escuchar y cuanto más, mejor. Aprenden de nuestras preferencias, rutinas, pero también de nuestro acento, entonación y hasta de nuestra pronunciación en otros idiomas (como al pedir una canción). Así es muy probable que el altavoz de nuestro hogar, si lo usamos mucho, reconozca perfectamente el título original de una película, pero otro, del mismo modelo, el mismo año y comprado en la misma ciudad, tenga dificultades: no ha aprendido de nosotros. Un ejemplo muy claro de esto es que cuando Amazon estaba terminando de hacer que Alexa hablara español. Se dio a probar a cientos de personas en todo el país, desde Galicia a Cataluña, una exigencia enorme que les permitió crear una extensa biblioteca de acentos y modismos locales.

Por eso necesitan los altavoces inteligentes grabar contenido y esa es la razón para contar con expertos en idiomas: muchas palabras en español no tienen ningún sentido ofensivo, pero en castellano sí. Díganselo a un argentino si no...

En este contexto Google tuvo, a través de su post, una respuesta cuanto menos sorprendente.

Primero, defendió el proceso de transcripción como una parte necesaria para proporcionar tecnologías de asistencia de voz a sus usuarios internacionales (lógico), pero también señala que se está preparando para investigar y tomar medidas contra los responsables de filtrar la información a la Prensa. «La transcripción es una parte crítica del proceso de desarrollo de esta tecnología –explica Monsees –, y es necesaria para crear productos como el Asistente de Google. Acabamos de descubrir que uno de los responsables de la revisión de los audios ha violado nuestras políticas de seguridad de datos al filtrar información confidencial. Nuestros equipos de respuesta de seguridad y privacidad se han activado en este tema, están investigando y tomaremos medidas. Estamos realizando una revisión completa de nuestras medidas de protección para evitar que una conducta inapropiada como esta vuelva a ocurrir (...)».

En raras ocasiones, los dispositivos que tienen el Asistente de Google incorporado, pueden experimentar lo que llamamos una «aceptación falsa». Esto significa que un ruido o palabras en el fondo, hacen que nuestro «software» lo interprete como la palabra clave (por ejemplo «Ok Google»).

No hay sistema infalible

Tenemos una serie de protecciones para evitar que se produzcan falsas aceptaciones en su hogar. Lógicamente no hay sistema infalible y estas barreras no siempre evitan las «aceptaciones falsas».Es decir, sí a veces se graban conversaciones sin que hayamos activado el asistente de voz, pero en lugar de explicar a los usuarios cómo, quién y porqué escucha nuestras conversaciones, iremos detrás de quien ha hecho público esto. En caso que queramos borrar toda la información guardada por Google, basta ir a nuestra cuenta, seleccionar Privacidad y personalización y borrar o desactivar todas las opciones que nos interese mantener en privado. Pero la realidad es que esto no es solo un problema de Google. Constantemente estamos dando permisos para que aplicaciones y servicios accedan a nuestra galería, contactos, ubicación o micrófono.

Netflix

El 10 de diciembre de 2017, a las 21:52, la cuenta de Twitter de Netflix USA, publicó lo siguiente: «A las 53 personas que han visto ''Un príncipe de Navidad'' cada día durante los últimos 18 días: ¿Quién les ha hecho daño?» Si lo pensamos durante un segundo comienza a ser un poco desagradable saber que Netflix guarda la información de todos nuestros programas, cuántas veces los vemos y dónde (porque la programación cambia dependiendo del país). ¿Por qué guarda esta información, en lugar de solo analizarla, si es un servicio de pago? La respuesta es otra pregunta: ¿Cuánto pagaría Facebook por saber qué series vemos?

Amazon

Recientemente la compañía de Jeff Bezos debió responder a un senador de Estados Unidos acerca del uso de los registros de voz de los usuarios. Todo habría comenzado por una investigación del medio periodístico «CNET» que descubrió que las grabaciones de Alexa se mantenían a menos que los usuarios las eliminaran manualmente y que algunas transcripciones de voz nunca se eliminaron. Además, un informe de «Bloomberg» encontró que los trabajadores y contratistas de Amazon durante el proceso de revisión tuvieron acceso a las grabaciones, así como a un número de cuenta, el nombre del usuario y el número de serie del dispositivo.

Apple

En este caso no se trata de un uso extraño de la tecnología por parte de Apple sino más bien de un fallo en sus sistemas. La compañía de Cupertino anunció que ha desactivado temporalmente la aplicación de walkie-talkie del Apple Watch al detectar una vulnerabilidad que permitía que se usase para escuchar conversaciones de terceros. El fallo fue denunciado por un usuario y Apple confirmó que sí, que es posible escuchar desde el reloj conversaciones que tuviesen lugar en el iPhone de otra persona. En un comunicado, Apple aseguró no tener constancia de que nadie haya usado la vulnerabilidad, lo cual es bastante obvio: son muy pocos los que denuncian que han estado invadiendo la privacidad ajena...Ni siquiera cuando les pillan.