IA Act

Necesaria, pero con ciertas lagunas: así es la IA Act europea

Poner a las personas en el centro es bienvenido, pero se reclama flexibilidad

Un nuevo informe apunta a la desigualdad de género en este ámbito laboral
Inteligencia ArtificialDreamstime

 La UE tiene la primera regulación mundial sobre IA . Con muchos detalles por conocer y concretar, estas son las primeras reacciones en España.

Borja Adsuara, abogado y consultor de estrategia digital, o Valero Marín, presidente de IndesIA, celebran que la UE y España hayan liderado esta primera regulación. Pero Adsuara considera, entre otras cuestiones, que aún quedan por definir puntos como «quién va a vigilar a los que nos vigilan. Debe preverse un sistema de garantías y de sanciones a las autoridades y administraciones públicas que hagan mal uso de la IA (incluyendo la inhabilitación de los altos cargos y funcionarios, aparte de otras responsabilidades en que puedan incurrir)».

Además, este abogado sostiene que el Reglamento IA “no es ni aspira a ser una regulación completa y exhaustiva de la IA, sino, más bien, un 'marco regulador' que permita un desarrollo a través de actos delegados de la Comisión europea, directrices de la Oficina europea de IA que se cree y de las Agencias de Supervisión de la IA de los Estados miembros y también de los Convenios de Buenas Prácticas que se firmen con los sectores, para poder adaptarse a las innovaciones que se vayan produciendo en este campo. Y también se producirán modificaciones en las leyes sustantivas sectoriales”.

David Pereira, responsable de Datos e IA en NTT Data para EMEAL, cree que la medida “para favorecer la competitividad de los champions europeos”, ha introducido normas específicas para los sistemas de IA de propósito general (GPAI), que son aquellos que pueden realizar tareas complejas y variadas, como los modelos de lenguaje natural. “Estos sistemas, en el nivel de impacto alto estarán sujetos a un régimen más estricto de supervisión y evaluación, siempre que superen un cierto umbral de coste de entrenamiento, que se considera una medida de su potencia”. Algo que, en su opinión, «podría afectar a empresas como OpenAI pero no a otras como Mistral, que ha creado un modelo similar en resultados pero más eficiente en parámetros», aunque considera que estaríamos ante una «medida cortoplacista que no se alinearía con el objetivo de defender los derechos de los ciudadanos».

Valero Marín cree «fundamental otorgarle cierta flexibilidad que no la haga partir con desventaja frente a otros países por el hecho de haber sido pionera. Es fundamental avanzar en un marco común sin que nadie se quede atrás y en el que se garanticen los mismos derechos y obligaciones a todos los ciudadanos independientemente de su país de origen o residencia».

El papel de los derechos

En este sentido, Juan Manuel García, CIO/CDO de Repsol, asegura que regular la IA «supone poner a las personas en primer lugar y que los derechos de los ciudadanos estén por encima de cualquier otro criterio» por lo que augura un mayor impulso en «la confianza en la adopción» de la IA al «fomentar la transparencia en su utilización».

Sin embargo, Pereira considera que el contexto político y social ha tenido mucha influencia en la relación de este trílogo. La UE, asegura, “se enfrenta a diversos retos como el auge de los extremismos, la presión migratoria o la defensa de los derechos humanos” lo que ha provocado que los gobiernos hayan buscado un equilibrio entre “la protección de los ciudadanos con la flexibilidad para aplicar la IA en ámbitos sensibles como la seguridad y la vigilancia ante delitos”. ¿Se ha conseguido? “Se ha introducido finalmente una excepción muy polémica, que permite el uso de la vigilancia biométrica en tiempo real en espacios públicos bajo ciertas condiciones. Esta excepción ha sido duramente cuestionada por colectivos civiles y organizaciones de derechos humanos, que la consideran una tecnología invisible, irreversible e incompatible con los derechos civiles”, asegura.

Juan Manuel García también considera que la regulación «es necesaria» porque «atiende las inquietudes relacionadas con la privacidad y la seguridad, y la salvaguarda de los derechos personales, previniendo posibles males usos», creando un marco legal que «brinda las garantías necesarias» para proporcionar ese entorno de confianza». Como otros expertos, cree que la legislación «tiene que ser flexible, ya que la tecnología avanza muy rápido; de ahí que deba ir adaptándose a su evolución».

Una visión compartida por el presidente de IndesIA, quien asegura que legislar es “indispensable para dar un marco de confianza” a la inteligencia artificial. No obstante, considera que el hecho de que se pongan mecanismos de control a la inteligencia artificial “puede ser beneficiosa para su desarrollo, pero ha de hacerse de la forma adecuada porque puede ayudar a la sociedad a confiar más en la inteligencia artificial”. Advierte, en este sentido, que “una IA en la que la sociedad no confía no puede tener éxito. La inteligencia artificial se debe aplicar teniendo en cuenta una normativa asociada a los principios y leyes que rigen nuestra sociedad”.

Los riesgos de regular

Para Richard Benjamins, Chief Responsible AI Officer en Telefónica, regular la IA Generativa de propósito general (GPAI) «por su posible uso de alto riesgo implica también regular los usos sin riesgo. Pero no regular estos sistemas implica no regular sus posibles usos de alto riesgo. El compromiso es no regular los sistemas de GPAI pero poner obligaciones de transparencia para que los usos de alto riesgo tengan suficiente información para cumplir con los requisitos. Los GPAI de riesgos sistémicos tendrán que aplicar requisitos adicionales como la gestión de riesgos, monitorización de incidencias, evaluación del modelo y testeo adversario. La operacionalización de estos requisitos se deja en manos de la industria a través de códigos de conductos obligatorios, pero el cómo no entra en la regulación».

Además, este responsable señala que hay cosas que se quedan fuera de esta regulación, “y es más de lo que uno piensa a primera vista”. Así, esta norma no aplica a todo lo que ocurre “fuera de Europa, todo lo que tiene que ver con la seguridad nacional de sus estados miembros, las aplicaciones de IA militar o aplicadas a la defensa, sistemas de IA con exclusiva aplicación a investigación e innovación, y el uso de la IA para fines no profesionales”.

Benjamins también considera que “hay muchas voces que dicen que la regulación frena la innovación, y usan como argumento el hecho que ninguna “Big Tech” está en Europa, y todas en los EE. UU. donde se deja la (auto) regulación en manos de las propias empresas”. Sin embargo, este experto alude a “muchos otros factores que influyen en este hecho” como “la mayor aversión al riesgo en Europa, el menor acceso a capital riesgo, la vergüenza de fracasar en vez de verlo como oportunidad de aprendizaje, y el foco académico de los investigadores europeos frente a los aplicados en EE. UU. etc. En mi opinión, no se trata de encontrar el equilibrio entra la innovación y regulación, sino de innovar de una manera responsable desde el diseño. La AI Act obliga a los actores de los sistemas de IA con alto riesgo pensar de antemano en los posibles impactos negativos y no una vez lanzado al mercado. Es mucho más fácil y económico prevenir o mitigar posibles impactos negativos al principio, antes de hacer inversiones importantes, que después de haberlo lanzado al mercado (“break and fix”)”.