Tecnología
La UE acuerda la primera ley de inteligencia artificial del mundo tras 30 horas de negociaciones
Las instituciones europeas persiguen el control de la vigilancia biométrica
Tras más de treinta horas de negociaciones, las instituciones europeas han llegado al filo de la medianoche del viernes a un acuerdo para poner poner los cimientos de un modelo de regulación de Inteligencia Artificial propio que haga frente a la laxitud estadounidense y al control estatal chino, la primera ley integral del mundo sobre esta materia.
El propósito reside que esta nueva normativa pueda estar en vigor plenamente en 2026, tras un periodo de gracia que sirva como adaptación. "La ley de inteligencia artificial de la UE es pionera en el mundo. Un marco legal único para el desarrollo de la inteligencia artificial en el que se puede confiar", afirmó la presidenta de la Comisión Europea, Ursula von der Leyen, en un mensaje en la red social X (antes Twitter).
El diablo está en los detalles y el atasco en las negociaciones que comenzaron este miércoles ha estado originado por dos temas: la vigilancia biométrica y el control de sistemas como el de chatGPT. La Unión Europea quiere que todos los productos elaborados con inteligencia artificial sean clasificados en cuatro categorías según supongan un riesgo mínimo, limitado, alto o inaceptable. Según este baremo, la legislación será más o menos permisiva.
Dentro de la última categoría entrarían los sistemas de inteligencia artificial que supongan la manipulación cognitiva del comportamiento de personas o grupos vulnerables específicos: por ejemplo, juguetes activados por voz que fomentan comportamientos peligrosos en los niños y aquellas herramientas de puntuación social que clasifican a las personas en función de su comportamiento, estatus socioeconómico o características personales, un sistema que ya está implantado en China.
Bruselas califica el ChatGPT como una herramienta de Inteligencia Generativa. Esto significa que este sistema de conversación permite crear ideas y contenidos nuevos al igual que hace la inteligencia humana reutilizando los datos de entrenamiento para resolver nuevos problemas. Por ejemplo, no se limita a aprender palabras en un nuevo idioma sino que después puede componer un poema con ellas.
Estos sistemas de inteligencia artificial pueden mantener conversaciones con seres humanos, responder de manera natural y ayudar en tareas como escribir un trabajo o dar información. La Eurocámara durante estas negociaciones ha defendido poner coto a esta tecnología fuertemente disruptiva con una serie de requisitos como la revelación de que los contenidos han sido generados por Inteligencia Artificial, evitar que se generen contenidos ilegales y la publicación de resúmenes de los datos protegidos por derechos de autor utilizados durante la fase de entrenamiento.
La posición de las capitales europeas, sin embargo, era más permisiva. Alemania, Francia e Italia consideraban que regular esta nueva herramienta de manera más estricta tan sólo conllevará que las empresas europeas vuelvan a perder el tren de la economía digital, después de que la primera ola estuviera protagonizada por los colosos de internet como Microsoft, Google, Twitter, Facebook o Amazon. El hecho de que el chatGPT haya sido creado por el laboratorio de Inteligencia Artificial OpenAI hace temer una vez más que EEUU tome la delantera.
Para que las empresas europeas no se vean asfixiadas por requisitos estrictos, los tres países antes mencionados han abogado durante las negociaciones por poner en marcha un sistema de autorregulación obligatoria a través de códigos de conducta puestos en marcha por las propias compañías y que después se establezcan organismos para vigilar que estos códigos se cumplan.
En cuanto al reconocimiento facial en tiempo real, la Eurocámara quería prohibir la vigilancia biométrica a distancia en espacios públicos en tiempo real en todas las circunstancias y tan solo admitía la utilización de esta herramienta a posteriori y como modo de esclarecer posibles hechos delictivos con aprobación judicial
La Comisión Europea y las capitales, sin embargo, se inclinaban por prohibir este método de vigilancia, pero permitir su utilización en espacios públicos y en tiempo real en casos excepcionales como un secuestro, la protección de infraestructuras críticas o la comisión de un atentado para evitar el mal mayor, siempre y cuando un juez autorizase este reconocimiento facial
El tiempo apremia porque la realidad va mucho más rápido que las leyes y nuevos problemas éticos se abren paso ante el desarrollo de esta tecnología disruptiva que puede cambiar tanto el modelo económico del siglo XXI como las formas de relación humanas.
Como prueba de que la realidad no espera, la propuesta inicial de la Comisión Europea data de abril de 2021 mientras que ChatGPT, la herramienta más sofisticada hasta la fecha y la más potencialmente peligrosa, comenzó su andadura en noviembre de 2022. Además, mientras las instituciones comunitarias comenzaban sus contactos el pasado miércoles de estas maratonianas negociaciones, se presentaba al otro lado del Atlántico el nuevo sistema de Google, Gemini, para competir precisamente con ChatGPT. Se diferencia de los sistemas conocidos hasta ahora en que el usuario puede interactuar con la aplicación utilizando diferentes medios a la vez como texto, imágenes, audio, video y código de programación.
El propósito reside en agregar a Gemini a otros productos de la compañía como el motor de búsqueda de Google y el navegador Chrome. Se pretende que Gemini esté disponible en tres tamaños disponibles para que pueda ser utilizado en dispositivos móviles, si bien su versión más sofisticado todavía no ha sido lanzada y está siendo sometido a pruebas de seguridad.
Como muestra de que el desarrollo de esta tecnología supone una nueva era, el creador de ChatGPT, Sam Altman, ha sido escogido esta semana como el CEO del año por la revista Time, lo que le corona como el nuevo profeta de Silicon Valley después de haber sido despedido por la junta directa de empresa que ayudó a fundar, Open AI, y readmitido en tan sólo cinco días.
Unos hechos sorprendentes que han abierto la veda a todo tipo de rumores sobre el descubrimiento de una variante de la Inteligencia Artificial que podría terminar con la humanidad.
Un hito importante
La presidencia española del Consejo la UE ha logrado uno de sus principales objetivos en este semestre con el pacto de esta norma pionera en el mundo. "Hemos logran un hito importante, que los ciudadanos podemos decidir qué se puede hacer y qué no con la inteligencia artificial", explicó la secretaria de Estado española de Telecomunicaciones e Infraestructura Digital, Carme Artigas.
“Es una ley muy buena que impulsará la innovación y de forma compatible con los derechos fundamentales”, agregó Artigas. La norma prevé la creación de la Oficina Europea de Inteligencia Artificial, que coordinará el uso de la tecnología entre las autoridades nacionales y que estará asesorada por un panel de científicos y de organizaciones de la sociedad civil.
Está previsto que la ley entre en vigor en 2026 pero se aplicará por fases: la oficina europea se creará de forma inmediata, la prohibición de los sistemas prohibidos de inteligencia artificial llegará a los seis meses y los requisitos para los sistemas y modelos de IA generativa, a los 12.
El reglamento prevé multas con un rango que va desde los 35 millones de euros o el 7 % del volumen global de negocio de las empresas, hasta los 7,5 millones de euros o el 1,5% del volumen global de negocio.
“La UE se convierte en el primer continente que pone reglas claras para el uso de la IA”, señaló el comisario de Mercado Interior, Thierry Breton, uno de los grandes impulsores de la normativa y para quien la ley propuesta es “mucho más que un paquete de normas, es una lanzadera para que las startups europeas y los investigadores lideren la carrera global por la IA”.
✕
Accede a tu cuenta para comentar