Regulación IA

La UE pone coto a la vigilancia biométrica y prohíbe los sistemas de Inteligencia Artificial más peligrosos

Éstas son las claves de cómo quedará regulada una tecnología disruptiva que puede cambiar el modelo económico del siglo XXI, e incluso las formas de relación humanas

Tal y como manda la mejor o peor tradición comunitaria, esta semana se ha logrado cerrar un acuerdo sobre Inteligencia artificial tras dos jornadas de maratonianas de 22 horas y 14 horas. Éstas son las claves de cómo quedará regulada una tecnología disruptiva que puede cambiar el modelo económico del siglo XXI e incluso las formas de relación humanas.

¿Por qué es tan importante este acuerdo?

Se trata de la primera ley integral sobre inteligencia artificial del mundo que intenta establecer un modelo propio europeo, alejado de la laxitud estadounidense y del uso por parte de este tipo de herramientas por el Estado para el control social, tal y como sucede en China.

¿Cuáles han sido los dos puntos que han atascado las negociaciones?

Fundamentalmente dos: la técnicas biométricas de reconocimiento facial en lugares públicos y cómo controlar herramientas como chat GPT, a las que Bruselas define como Inteligencia Generativa

¿En qué consiste la ley?

Se establecen ciertas categorías de productos generados por Inteligencia Artificial según su nivel de peligrosidad que quedan sujetos a diferentes tipos de legislación.

¿Se prohíben algunos?

Sí, los sistemas de categorización biométrica que usen datos sensibles como creencias religiosas y filosóficas, ideología, orientación sexual o raza; utilización de imágenes de internet para crear bases de datos de reconocimiento facial; herramientas de reconocimiento de emociones en lugares de trabajo e instituciones educativas; todos los sistemas de manipulación del comportamiento humano o características personales y la explotación de vulnerabilidades de las personas por edad, situación social o económica o algún tipo de discapacidad.

¿Hay alguna excepción para el reconocimiento facial biométrico?

Ha sido uno de los aspectos más peliagudos de las conversaciones. Aunque hay una prohibición general de utilizar esta herramienta en tiempo real y en lugares públicos, se podrá utilizar con autorización judicial para una lista cerrada de delitos y durante un tiempo y espacio limitados. Estos delitos incluyen la búsqueda de víctimas de tráfico de personas o explotación sexual, la prevención de amenazas terroristas específicas y la localización e identificación de sospechosos en delitos graves: terrorismo, tráfico, explotación sexual, asesinato, secuestro, violación, robo armado, participación en una organización criminal o acciones contra el medio ambiente. En el caso de que este herramienta se utilice después para investigar un delito, también deberá limitarse de manera estricta a localizar a personas sospechosas o con condenadas por haber cometido un delito grave.

¿Qué pasa con las herramientas de alto riesgo que no están prohibidas?

Deberán incluir un informe sobre su riesgo para los derechos fundamentales. En esta categoría también están incluidos aquellas herramientas que pueden influir en el resultado electoral.

¿Qué es la Inteligencia Generativa?

Este sistema de conversación permite crear ideas y contenidos nuevos al igual que hace la inteligencia humana reutilizando los datos de entrenamiento para resolver nuevos problemas. Por ejemplo, no se limita a aprender palabras en un nuevo idioma sino que después puede componer un poema con ellas. Estos sistemas de inteligencia artificial pueden mantener conversaciones con seres humanos, responder de manera natural y ayudar en tareas como escribir un trabajo o dar información.

¿Cómo se regularán estas últimas herramientas?

No quedan prohibidas, pero sí vigiladas. Los fabricantes deberán proveer de información técnica, avisar de los contenidos han sido generados por Inteligencia Artificial, evitar que se generen contenidos ilegales y la publicación de resúmenes de los datos protegidos por derechos de autor utilizados durante la fase de entrenamiento.

Aquellos sistemas más peligrosos dentro de la Inteligencia Generativa deberán también cumplir requisitos adicionales como establecer modelos de conducta, informes de análisis y mitigación de riesgos, obligación de informar a la Comisión sobre incidentes serios así como de cumplir con las normas de ciberseguridad y eficiencia energética. Hasta que se hayan armonizado estos estándares europeos, este tipo de herramientas podrán regularse por códigos de conducta propios.

¿Qué pasa si las empresas no cumplen estos requisitos?

Pueden enfrentarse a multas desde los 35 millones de euros y el 7% de sus beneficios globales hasta 7,5 millones de euros y el 1,5% de los beneficios dependiendo del tamaña de la empresa y la infracción.

¿Esto no lastra el desarrollo de estas herramientas?

Durante las negociaciones, Alemania, Francia e Italia consideraban que regular estos nuevos sistemas de manera estricta tan sólo conllevaría que las empresas europeas volvieran a perder el tren de la economía digital, después de que la primera ola estuviera protagonizada por los colosos de internet como Microsoft, Google, Twitter, Facebook o Amazon. El hecho de que el chatGPT haya sido creado por el laboratorio de Inteligencia Artificial OpenAI hace temer una vez más que EEUU tome la delantera. Finalmente, las empresas pequeñas podrán establecer regulaciones aisladas y test en el mundo real, según los criterios de las autoridades nacional, para desarrollar este tipo de herramientas innovadoras antes de que estén disponibles en el mercado.

¿Cuándo entrará en vigor?

Ahora este acuerdo entre las instituciones europeas- Parlamento, Consejo y Comisión- deber formalizarse. Después está previsto que la ley entre en vigor en 2026 pero aplicará por fases. La prohibición de los sistemas de alto riesgo se producirá a los seis meses, los requisitos para los sistemas de inteligencia generativa a los 12 mientras que se creará una oficina europea de estándares comunes de manera inmediata.