Podcast

En el podcast V de Viernes: ¿Hay que frenar la Inteligencia Artificial?

Recientemente aparecía en redes una carta abierta promovida por la organización Future of Life Institute pidiendo una moratoria de al menos seis meses en los grandes desarrollos de IA

Portada del suplemento V de Viernes
Portada del suplemento V de ViernesLa Razón

Esta semana dedicamos nuestro tema de portada a la Inteligencia Artificial y es que ChatGPT, el chatbot de Inteligencia Artificial de la empresa OpenAI que apareció en novimebre, ha revolucionado el mundo tecnológico ye ha reabierto el debate sobre la necesidad de regular más los desarrollos de la Ia.

Chat GPT es capaz de escribir un texto como si fuera un humano, tener una conversación contestando preguntas de forma natural, escribir un guion para un podcast y una redacción académica o periodística sobre cualquier tema con el estilo literario y la extensión que se desee.

Recientemente aparecía en redes sociales un carta abierta promovida por la organización Future of Life Institute (una organización sin fines de lucro cuyo objetivo es «reducir el riesgo existencial global que plantea la inteligencia artificial avanzada») pidiendo una moratoria de al menos seis en los grandes desarrollos de Inteligencia Artificial y en sistemas más potentes que el GPT-4. Entre los firmantes, Elon Musk (uno de los primeros inversores de OpenAI); el cofundador de Apple, Steve Wozniak o el de Skype, Jaan Tallinn, están a favor de parar los desarrollos porque consideran que representan un riesgo para la humanidad. También Geoffrey Hinton, padre de las redes neuronales se ha mostrado crítico con los chatbots y la IA generativa, que curiosamente se basan en su propio trabajo. A él y a otros desarrolladores se les considera los arrepentidos de la Inteligencia Artificial.

En contra, Bill Gates, fundador de Microsoft (y accionista de OpenAI ) que argumenta que frenar los desarrollos un verano no resolverá los problemas que vienen por delante. ¿Y qué problemas vienen? Lo que pìde la carta, por ejemplo, es trabajar sobre sesgos algorítmicos, sobre la privacidad y los cambios laborales.

Los laborales son los mejor cuantificados. Goldman Sachs afirma que unos 300 millones de empleos en todo el mundo están en peligro de automatizarse y desaparecer. Pero no son los únicos; existe la posibilidad de que la IA se utilice para manipular a los votantes y desinformar», dice en un reportaje la CNN. Esta semana tenía lugar la comparecencia del Ceo de OpenAI ante el Senado de EE UU y este era precisamente unos de los argumentos de un senador del país. Además, herramientas de generación de texto o imagen pueden usarse para robar la identidad de cualquier usuario de internet, tener acceso a información personal y financiera, etc. Esta misma semana, Samsung anunciaba que prohíbe a sus empleados el uso de esta herramienta y de otras IA tras descubrir que uno de ellos ha compartido información confidencial con la citada herramienta.

Otro problema, el de la privacidad de los datos, es lo que llevó hace un mes al gobierno italiano a prohibir el uso de ChatGPT. Aunque ya ha levantado el veto, otros países como Rusia, China o Irán mantienen la prohibición y en Europa se prepara la Ley de Inteligencia Artificial centrada entre otras cosas en la protección de los datos o en los sesgos que contienen los algoritmos.