Inteligencia Artificial
Bruselas veta la vigilancia biométrica masiva
Busca que la sociedad europea no vea socavados su derechos
La Comisión Europea presentó ayer su primera propuesta para regular el desarrollo de la inteligencia artificial. El propósito de la Comisión Europea es prohibir aquellas nuevas aplicaciones de alto riesgo que socaven los derechos fundamentales de los ciudadanos. El objetivo reside en constituir un modelo alternativo al empleado por China, en el que las libertades individuales están siendo menoscabadas gracias a nuevos instrumentos que dan un poder omnímodo al Estado y suponen la encarnación de las peores profecías orwelianas.
Por eso, la Comisión Europea propone una serie de limitaciones que afecten no sólo a las autoridades públicas sino también a las empresas privadas que pueden acabar siendo multadas con hasta el 6% de su facturación anual si no cumplen los nuevos estándares europeos.
Entre las propuestas del Ejecutivo comunitario destaca la prohibición de los sistemas de inteligencia artificial que permitan la identificación biométrica –huella dactilar, reconocimiento fácil, escáner e iris y retina– en espacios públicos. El documento presentado ayer tan sólo permite que se pueda utilizar esta tecnología en casos muy específicos como un «inminente» ataque terrorista, encontrar a un menor desaparecido o identificar al sospechoso de haber cometido un delito grave. En todas estas situaciones será necesaria una orden judicial y unos límites claros de duración y alcance geográfico de esta herramienta.
En el caso de China, esta nueva tecnología ha sido utilizada para rastrear e identificar a la minoría uigur –enviados a campos de reeducación– o a los participantes en las manifestaciones de Hong- Kong en defensa de la autonomía de la excolonia británica.
Además, la propuesta desvelada ayer también aboga por poner limites claros en las aplicaciones de «puntuación social» que sirven para controlar el comportamiento de los ciudadanos o las interacciones de menores con juguetes que utilicen asistentes de voz y que pueden incitar a los niños a comportamientos peligrosos. En todo momento, los usuarios deber ser conscientes de que están hablando con una máquina y por eso estos sistemas no pueden utilizar «técnicas subliminales» que lleguen a manipular la voluntad de las personas y ocasionarles algún tipo de daño ya sea físico o psicológico.
Este control también incluye a aquellas aplicaciones utilizadas en la clasificación de currículum para seleccionar candidatos a un empleo, la evaluación de la idoneidad para pagar un crédito o gestión de solicitudes de asilo y que pueden perpetuar una series de estereotipos discriminatorios sobre la raza o religión.
Esta propuesta desvelada ayer deber ser ahora negociada con las capitales europeas y con la Eurocámara y se aplicará a todas las entidades públicas y privadas que operen en el mercado interior o cuyo uso afecte a los ciudadanos europeos.
Con esta iniciativa, Bruselas pretende adelantarse a una realidad que avanza a pasos agigantados y cuyos usos se multiplican a velocidad vertiginosa, con China como gran desafío. «En lo que respecta a la inteligencia artificial, la confianza es una necesidad, no un lujo. Con estas normas históricas, la UE encabeza el desarrollo de nuevas normas mundiales para garantizar que se pueda confiar en la Inteligencia Artificial», aseguró ayer la comisaria de Competencia, Margrethe Vestager. Bruselas no quiere renunciar a estas nuevas herramientas, pero cree que es necesario poner «puertas al campo antes de que sea demasiado tarde».
✕
Accede a tu cuenta para comentar