Control de la IA

La UE ultima la primera ley del mundo sobre inteligencia artificial

La vigilancia policial y el ChatGPT atascan las negociaciones

FraudGPT y WormGPT: las alternativas 'malignas' a ChatGPT que ya usan los cibercriminales.
La Unión Europea ultima la primera ley del mundo sobre inteligencia artificialFreepikFreepik

22 horas de maratonianas negociaciones que se prolongaron de madrugada no han sido suficientes para que la Unión Europea haya cerrado un acuerdo sobre la inteligencia artificial (IA), una ley que podría convertirse en la primera del mundo sobre esta revolucionaría tecnología, cuyo desarrollo puede marcar el siglo XXI. A pesar de que fuentes negociadoras reconocen los avances registrados, será necesario una nueva sesión que comenzará este viernes, antes de que llegue la ansiada fumata blanca.

El propósito reside que esta nueva normativa pueda estar en vigor plenamente en 2026, tras un periodo de gracia que sirva como adaptación. El tiempo apremia porque la realidad se abre paso y va más rápida que las leyes. Como prueba, la propuesta inicial de la Comisión Europea data de abril de 2021 mientras que ChatGPT, la herramienta más sofisticada hasta la fecha y la potencialmente más peligrosa, comenzó su andadura en noviembre de 2022.

En el último empujón para intentar cerrar un acuerdo antes de que termine el año, este miércoles las capitales europeas, la Eurocámara y la Comisión Europea mantuvieron una serie de encuentros a tres bandas, denominados trílogos ,que se prorrogaron hasta el jueves. La Unión Europea quiere que todos los productos elaborados con inteligencia artificial sean clasificados en cuatro categorías,según supongan un riesgo mínimo, limitado, alto o inaceptable. Según este baremo, la legislación será más o menos permisiva.

Dentro de la última categoría de riesgo inaceptable entrarían los sistemas de inteligencia artificial que supongan la manipulación cognitiva del comportamiento de personas o grupos vulnerables específicos. Por ejemplo, juguetes activados por voz que fomentan comportamientos peligrosos en los niños y aquellas herramientas de puntuación social que clasifican a las personas en función de su comportamiento, estatus socioeconómico o características personales, un sistema que ya está implantado en China.

Sin embargo, las discrepancias sobre cómo abordar los sistemas de identificación biométrica en espacios públicos o herramientas como en ChatGPT han dificultado las negociaciones en el último tramo, aunque fuentes diplomáticas señalan que este el acuerdo sobre sistemas de inteligencia artificial como ChatGPT está casi cerrado. A pesar de esto, la discreción sobre el rumbo de las negociaciones es máximo como modo de no hacer descarrillar el acuerdo en el último minuto.

Bruselas califica el ChatGPT como una herramienta de Inteligencia Generativa. Esto significa que este sistema de conversación permite crear ideas y contenidos nuevos al igual que hace la inteligencia humana reutilizando los datos de entrenamiento para resolver nuevos problemas. Por ejemplo, no se limita a aprender palabras en un nuevo idioma sino que después puede componer un poema con ellas.

Estos sistemas de inteligencia artificial pueden mantener conversaciones con seres humanos, responder de manera natural y ayudar en tareas como escribir un trabajo o dar información. La Eurocámara quiere poner coto a esta tecnología fuertemente disruptiva con una serie de requisitos como la revelación de que los contenidos han sido generados por inteligencia artificial, evitar que se generen contenidos ilegales y la publicación de resúmenes de los datos protegidos por derechos de autor utilizados durante la fase de entrenamiento.

La posición de las capitales europeas, sin embargo, es más permisiva. Alemania, Francia e Italia consideran que regular esta nueva herramienta de manera más estricta tan sólo conllevará que las empresas europeas vuelvan a perder el tren de la economía digital, después de que la primera ola estuviera protagonizada por los colosos de internet como Microsoft, Google, Twitter, Facebook o Amazon. El hecho de que el chatGPT haya sido creado por el laboratorio de inteligencia artificial OpenAI hace temer una vez más que EEUU tome la delantera.

Para que las empresas europeas no se vean asfixiadas por requisitos estrictos, Alemania, Francia e Italia quieren poner en marcha un sistema de autorregulación obligatoria a través de códigos de conducta puestos en marcha por las propias compañías y que después se establezcan organismos para vigilar que estos códigos se cumplan.

En cuanto al reconocimiento facial en tiempo real, la Eurocámara quiere prohibir la vigilancia biométrica a distancia en espacios públicos en tiempo real en todas las circunstancias. Tan solo admite la utilización de esta herramienta a posteriori y como modo de esclarecer posibles hechos delictivos con aprobación judicial. La Comisión Europea y las capitales, sin embargo, se inclinan por prohibir este método de vigilancia, pero permitir su utilización en espacios públicos y en tiempo real en casos excepcionales como un secuestro, la protección de infraestructuras críticas o la comisión de un atentado para evitar el mal mayor, siempre y cuando un juez autorice este reconocimiento facial.

Mientras las instituciones europeas seguían enfrascadas en las negociaciones para regular la inteligencia artificial, siguen produciéndose nuevos avances. Google no quiere quedarse de brazos cruzados en este sector y ha presentado una nueva herramienta, su modelo conocido como Gemini que quiere competir con los ChatGPT. Se diferencia de los sistemas conocidos hasta ahora en que el usuario puede interactuar con la aplicación utilizando diferentes medios a la vez como texto, imágenes, audio, video y código de programación. El propósito reside en agregar a Gemini a otros productos de la compañía como el motor de búsqueda de Google y el navegador Chrome. Se pretende que Gemini esté disponible en tres tamaños disponibles para que pueda ser utilizado en dispositivos móviles, si bien su versión más sofisticado todavía no ha sido lanzada y está siendo sometida a pruebas de seguridad.