Control social

China regula que sus modelos de inteligencia artificial tengan “valores socialistas”

La nueva normativa, que prohíbe la generación de contenido falso y requiere la identificación de los usuarios de herramientas de IA generativa, entrará en vigor antes de fin de año

El presidente chino Xi Jinping es visto al final del 20º Congreso del Partido Comunista Chino en una pantalla gigante en un distrito comercial de Hangzhou, en la provincia oriental china de Zhejiang
El presidente chino Xi Jinping es visto al final del 20º Congreso del Partido Comunista Chino en una pantalla gigante en un distrito comercial de Hangzhou, en la provincia oriental china de ZhejianglarazonAgencia AP

La Administración del Ciberespacio de Chinaha publicado este martes un borrador con las normas que deberán seguir los desarrolladores de herramientas de inteligencia artificial en el país. Una fuerte regulación que, entre otros aspectos, exigirá la identificación de todos los usuarios de estas herramientas y que el contenido que generenesté de acuerdo con los “valores socialistas” que conforman la propaganda del Gobierno chino.

“El contenido generado por la inteligencia artificial generativa debe encarnar los valores socialistas fundamentales y no debe contener ningún contenido que subvierta el poder estatal, abogue por el derrocamiento del sistema socialista, incite a la división del país o socave la unidad nacional”, establece la autoridad reguladora de Internet en China.

Aunque el, por sus siglas en inglés, CAC ha señalado que busca escuchar comentarios sobre el contenido de la nueva regulación, es poco probable que estos supongan algún cambio en las normas que ha diseñado la autoridad del régimen comunista y que deberán entrar en vigor a finales de este año.

El CAC obligará a los desarrolladores a pasar una revisión de seguridad antes de autorizar el lanzamiento de sus productos y deberán estar registrados en una base de datos que se creará. Una vez disponibles públicamente, cada plataforma deberá verificar la identidad de sus usuarios para que puedan ser rastreados.

El borrador, que tiene el título de “Medidas Administrativas para Servicios de Inteligencia Artificial Generativa”, afirma que su objetivo es “el desarrollo saludable y la aplicación estandarizada de la tecnología de IA generativa”. Otras medidas que toma son la prohibición de todo contenido con “propaganda terrorista o extremista”, “odio étnico” u “otro contenido que pueda perturbar el orden económico y social”.

La autoridad china apunta objetivos que parecen inviables con el desarrollo actual de las inteligencias artificiales generativas como es el que no generen información falsa. OpenAI no lo ha conseguido con ChatGPT y no es una perspectiva que esté en el futuro inmediato, mientras que los chatbots anunciados por algunas empresas chinas en las últimas semanas han ofrecido un peor rendimiento que aquel y una mayor tendencia a proporcionar contenido erróneo.

Así ha sucedido con Ernie, el chatbot del buscador chino Baidu lanzado el mes pasado, o Tongyi Qianwen, anunciado por Alibaba esta semana. En una demostración realizada por la compañía, la IA “podía escribir poemas en chino y francés y resolver problemas matemáticos básicos, pero tenía problemas con la lógica simple”, según Financial Times.

Daniel Zang, CEO de Alibaba, declaró en la presentación del chatbot Tongyi Qianwen, antes de conocerse la nueva normativa del CAC, que estamos “en un momento tecnológico decisivo impulsado por la IA generativa y la computación en la nube. En 10 o 20 años, cuando miremos hacia atrás, nos daremos cuenta de que todos estábamos en la misma línea de partida. Aprovechar estas oportunidades futuras es nuestro deseo común y requiere una visión compartida.” Es probable que la nueva regulación suponga una alteración en los planes de Alibaba de llevar esta IA a todos sus productos, comenzando por la herramienta colaborativa DingTalk y los altavoces inteligentes Tmall Genie.

Andy Chun, profesor de la Universidad de Hong Kong, ha señalado a la agencia AFP que “el borrador del CAC es una de las medidas más estrictas para la IA generativa hasta el momento”. Por este motivo, las empresas de inteligencia artificial deberán “tener mucho cuidado para asegurarse de que cada fuente de datos utilizada para el aprendizaje de IA esté dentro de las pautas establecidas, sea precisa, imparcial y no infrinja los derechos de propiedad intelectual de otros. Garantizar la precisión es difícil. Ningún sistema generativo de IA hasta la fecha puede hacer eso”.