Tecnología

Me quedo con tu cara

La utilización por la Policía china de gafas que reconocen a los traunseúntes abren el debate sobre el ataque a nuestra intimidad

La tecnología del reconocimiento de la cara permite comparar el rostro de un ciudadano con los registrados en los archivos criminales
La tecnología del reconocimiento de la cara permite comparar el rostro de un ciudadano con los registrados en los archivos criminaleslarazon

La utilización por la Policía china de gafas que reconocen a los traunseúntes abren el debate sobre el ataque a nuestra intimidad.

La Policía china ha vuelto a dar la campanada con la puesta en funcionamiento de una nueva arma: unas gafas. Se trata de un complemento de cristales opacos que integra una microcámara de reconocimiento facial. Su misión es escudriñar los rostros de los ciudadanos que se aglomeran en grandes concentraciones (eventos, estaciones de tren, aeropuertos...) y detectar posibles delincuentes. La mirada del policía permite que la cámara reconozca docenas de rostros y envíe la imagen en tiempo real a una base de datos donde se comparan esas caras con las que están registradas en los archivos policiales pertenecientes a sospechosos de un crimen. Un algoritmo matemático puede hacer el reto del trabajo: identificar a un presunto criminal en cuestión de segundos. En una semana de uso, según han declarado las autoridades locales de Zhengzhou donde se puso en práctica la prueba, se pudo detener a siete sospechosos de grandes delitos e identificar a 29 personas que viajaban con identidad falsa.

La noticia ha dado la vuelta al mundo y ha levantado más de una suspicacia. La primera de ellas relacionada con el mero funcionamiento del aparato. Los expertos consideran que para que una microcámara de estas características sea capaz de cotejar rostros entre una multitud son necesarias unas condiciones de luz y visibilidad que no se suelen dar en espacios abiertos. No hay mucha certeza de que este tipo de dispositivos funcionen como prometen. La segunda duda es más peliaguda: ¿realmente es ético usar este tipo de herramientas de control? El uso de cámaras por las fuerzas del orden no es nada nuevo. La Policía de Nueva York ha incorporado microcámaras en sus uniformes para dejar constancia de la relación entre agentes y ciudadanos y tratar de reducir casos de abuso. En España entidades como Ferrocarriles de la Generalidad de Cataluña han puesto en marcha sistemas de captura de vídeo junto a programas de inteligencia artificial para controlar el número de pasajeros que entran a los trenes sin billete. Y muchos aeropuertos ya emplean cámaras de reconocimiento facial en los controles de pasaporte.

Pero la tecnología china ha dado un paso adelante: la posibilidad de detectar entre miles de caras las que se parecen a las de un sospechoso. Y aquí es donde surgen las dudas. Un sistema cerrado de seguridad de este tipo requiere una conexión perfecta entre los archivos policiales, las bases de datos judiciales y las imágenes que captura in situ la policía. Existen demasiados datos íntimos y sensibles cruzándose a la vez por el ciberespacio: todo un caldo de cultivo para los hackers y para el error. Los falsos positivos, en este caso, pueden conducir a una detención policial. Lo cierto es que la tecnología de reconocimiento facial, muy madurada en los últimos años, está más presente en nuestras vidas de lo que parece. Los usuarios de cámaras fotográficas o de redes sociales sabemos que las máquinas ya enmarcan los rostros conocidos o nos permiten hacer una búsqueda en todo el catálogo de fotos que archivamos por personas. Saben ponerle nombre a esa cara. Facebook permite desde hace tiempo etiquetar rostros y otras redes sociales catalogan también personalidades por la cara. De hecho, nuestro uso de las redes ha sido clave para mejorar la tecnología. Los usuarios etiquetan 350 millones de caras al día y valoran con su experiencia si el reconocimiento de un rostro ha sido satisfactorio. Toda esa información de prueba y error es oro para las empresas desarrolladoras de sistemas de reconocimiento. En algunas se utiliza ya sistemas de análisis de caras para seleccionar al personal. Un aspirante debe enviar un vídeo contestando a una serie de preguntas y el software analizar sus gestos para compararlos con los de una base de datos de empleados ideales. El programa israelí Faceception va más allá: asegura que mediante el estudio de la configuración de un rostro puede determinar si una persona es propensa a la pederastia o al terrorismo.

A través de las redes sociales, las fotos quedan unidas a un historial de comportamiento: comentarios, likes, compras por Internet, visitas a lugares. ¿Se podrá utilizar toda esa información para rastrear la ideología o los hábitos de una persona simplemente al ver su foto? ¿Cómo nos sentiríamos si al entrar en una tienda una máquina nos reconociera y supiera nuestros gustos? ¿O si los vecinos, solo con tomarnos una foto, supieran dónde hemos pasado la noche?

A estos temores se añade un defecto de la tecnología facial: es muy racista. Los casos de error de identificación son más numerosos con las personas de raza negra. No se sabe por qué. Puede ser por un efecto del reparto de iluminación en la piel o porque las bases de datos que se usan en las fuerzas de seguridad de los países más avanzados tecnológicamente están sesgadas ya que se ha investigado más con individuos de raza blanca. Las nuevas tecnologías nos roban el rostro. ¿Tendremos que acostumbrarnos a compartirlo?