Evolución

El G7 acuerda un código ético para regular el desarrollo de la inteligencia artificial

Este código de conducta, que se espera que sea voluntario, marcará un hito significativo en la forma en que las principales naciones supervisarán y regularán la IA

Inteligencia Artificial
Inteligencia Artificial Dreamstime

El G7, un grupo de las siete economías más importantes del mundo, está a punto de acordar un código ético que regirá el desarrollo de la Inteligencia Artificial (IA). Este código de conducta marcará un hito significativo en la forma en que las principales naciones supervisarán y regularán la IA, en un momento en el que existe una creciente preocupación por cuestiones de privacidad y seguridad relacionadas con esta tecnología.

Las economías que componen el G7, Alemania, Canadá, Estados Unidos, Francia, Italia, Japón y el Reino Unido, junto con la Unión Europea, comenzaron este proceso en mayo durante un foro ministerial llamado 'Proceso de Hiroshima sobre IA'. El código de conducta consta de 11 puntos y tiene como objetivo promover la seguridad y la fiabilidad de la IA en todo el mundo. Proporcionará orientación voluntaria a las organizaciones que desarrollan sistemas de IA avanzados, incluidos los modelos fundamentales y los sistemas generativos de IA más avanzados. El objetivo final es aprovechar los beneficios de la IA y abordar los riesgos y desafíos que plantea esta tecnología.

El código insta a las empresas a tomar las medidas adecuadas para identificar, evaluar y mitigar los riesgos a lo largo del ciclo de vida de la IA. También les exige abordar incidentes y patrones de uso indebido una vez que los productos de IA se han comercializado. Además, las empresas deben publicar informes detallados sobre las capacidades, limitaciones, uso y posible mal uso de los sistemas de IA. También se espera que inviertan en sólidos controles de seguridad.

La Unión Europea ha estado a la vanguardia de la regulación de la IA, introduciendo una Ley de IA que impone reglas claras y estrictas según el nivel de riesgo que presenten los sistemas de IA. Esta ley clasifica los sistemas de "alto riesgo", que pueden tener un impacto significativo en la vida de las personas, como los más regulados. Los sistemas de "riesgo moderado" y "riesgo leve" están sujetos a normas más flexibles, pero aún se requiere transparencia. La regulación de la IA en la UE también prohíbe sistemas de identificación biométrica.