Inteligencia artificial

Elon Musk pide detener el entrenamiento de inteligencias artificiales durante 6 meses

Firma una carta abierta, junto a otras personalidades de la tecnología, en la que solicitan a las compañías y laboratorios de IA que pausen su desarrollo para implementar protocolos de seguridad

Elon Musk
Elon MuskDPA vía Europa PressDPA vía Europa Press

Un amplio número de personalidades del mundo tecnológico han publicado una carta conjunta en la que advierten de los peligros de la actual carrera por la inteligencia artificial en la que están inmersas las grandes tecnológicas. Por este motivo, les solicitan que detengan el entrenamiento de las IAs “más potentes que GPT-4” durante un periodo de seis meses y que durante este tiempo se desarrolle e implemente “un conjunto de protocolos de seguridad compartidos para el diseño de IAs avanzadas” que garantice que estos sistemas son seguros.

Entre los más de 1.000 firmantes de esta carta abierta, publicada en la web de la organización sin ánimo de lucro Future of life Institute, se encuentran personalidades como Elon Musk (CEO de Tesla, SpaceX y Twitter), Steve Wozniak (cofundador de Apple), Jaan Tallinn (cofundador de Skype) y Yuval Noah Harari (autor del éxito de ventas Sapiens: De anímales a hombres), entre otras.

En el texto, los firmantes reconocen que “la IA avanzada podría representar un cambio profundo en la historia de la vida en la Tierra”, pero que “debe planificarse y gestionarse con el cuidado y los recursos correspondientes. Desafortunadamente, este nivel de planificación y gestión no está sucediendo”.

Entienden que los sistemas inteligencia artificial ya son competitivos con los humanos en tareas generales, por lo que cabe plantearse cuestiones como “¿deberíamos dejar que las máquinas inunden nuestros canales de información con propaganda y falsedad? ¿Deberíamos automatizar todos los trabajos, incluidos los que nos satisfacen? ¿Deberíamos desarrollar mentes no humanas que eventualmente podrían superarnos en número, ser más inteligentes, hacernos obsoletos y reemplazarnos? ¿Deberíamos arriesgarnos a perder el control de nuestra civilización?”

La carta señala que a estas preguntas no deben responder los líderes tecnológicos y que los sistemas de IA avanzados solo deben desarrollarse “una vez que estemos seguros de que sus efectos serán positivos y sus riesgos serán manejables”.

Por esta razón piden a las empresas y laboratorios de inteligencia artificial que pausen durante al menos seis meses el entrenamiento de sistemas de IA avanzados más poderosos que GPT-4. GPT-4 es el modelo de lenguaje de OpenAI que usa la versión de pago de ChatGPT y el buscador Bing.

Solicitan que ese tiempo sea empleado para que laboratorios y expertos independientes desarrollen el mencionado conjunto de protocolos de seguridad y que éste sea auditado por otros expertos independientes.

También abogan por el desarrollo de políticas para la gobernanza de la IA que incluyan nuevas autoridades reguladoras sobre este campo, supervisión y seguimiento de los sistemas avanzados de IA y de los grandes centros de datos en los que operan, un sistema de marcas de agua para distinguir las imágenes sintéticas de las reales, un ecosistema de auditoría y certificación, un mecanismo de responsabilidad de daños generados por la IA y financiación pública para investigación en la seguridad de las inteligencias artificiales.