Sección patrocinada por
Ciencia
¿Hay que frenar a la Inteligencia Artificial?
La aparición de ChatGPT, una IA capaz de conversar como un humano plantea si hay que regular más o no y si el mundo está en peligro de que las «máquinas» acaben con miles de puestos de trabajo o con la democracia
Desde que se lanzara al mercado en noviembre de 2022, la aplicación ChatGPT ha provocado una revolución en el mundo tecnológico, en el político y el terror en el mercado laboral. Con un puñado de palabras clave, este chatbot de Inteligencia Artificial de la empresa OpenAI, es capaz de escribir un texto como si fuera un humano, tener una conversación contestando preguntas de forma natural, escribir un guion para un podcast y una redacción académica o periodística sobre cualquier tema con el estilo literario y la extensión que se desee.
El sistema se ha desarrollado a partir de más de 175 millones de parámetros y ha sido entrenado con una gran cantidad de textos por lo que a la hora de contestar o de escribir es difícil distinguir entre una creación suya y otra salida de la mano de una persona. «Ha sorprendido el nivel que ha alcanzado en procesamiento de lenguaje. Realmente es casi como hablar con una persona o leer un texto de alguien que, además, ha accedido a mucha información», detalla Sara Lumbreras, codirectora de la Cátedra Ciencia, Tecnología y Religión de la Universidad Pontificia Comillas. Sin embargo, continúa la académica, la herramienta tiene alucinaciones. «Si le pasas unos puntos claves es capaz de hacer un texto, pero no de justificar de dónde viene la información. Si se le pregunta y no sabe la respuesta, se lo inventa. Estas alucinaciones son muy difíciles de confirmar. No sabemos cómo se ha entrenado y, además, no razona. Solo imita al lenguaje de los textos que le han servido de entrenamiento por lo que, muchas veces hemos detectado que le falta coherencia. En la Universidad lo hemos probado varios profesores y a los que peor resultado les da es a los compañeros de matemáticas», matiza.
La empresa OpenAi ha llegado a admitir los errores; que el programa no siempre genera respuestas precisas y que falta control y fiabilidad. Pero el poder de generar textos creíbles resulta bastante inquietante. De hecho, esta misma semana en la comparecencia de OpenAI en el senado estadounidense, y según informa la CNN, el senador Richard Blumenthal abrió la audiencia con una grabación falsa de su propia voz, en la que ilustraba sobre los riesgos de la tecnología y afirmando que igual que el texto decía una cosa, podía haberse hecho una grabación «fake» hablando de Putin o cualquier otro tema con opiniones falsas.
Moratoria
A finales del mes de marzo, aparecía en redes sociales un carta abierta promovida por la organización Future of Life Institute (una organización sin fines de lucro cuyo objetivo es «reducir el riesgo existencial global que plantea la inteligencia artificial avanzada») pidiendo una moratoria de al menos seis en los grandes desarrollos de Inteligencia Artificial y en sistemas más potentes que el GPT-4. «¿Deberíamos desarrollar mentes no humanas que, con el tiempo, pudieran superarnos en número, en inteligencia, volvernos obsoletos y reemplazarnos? ¿Debemos arriesgarnos a perder el control de nuestra civilización?», dice la carta. Personalidades como Elon Musk (uno de los primeros inversores de OpenAI); el cofundador de Apple, Steve Wozniak o el de Skype, Jaan Tallinn, están a favor de parar los desarrollos porque consideran que representan un riesgo para la humanidad. También Geoffrey Hinton, padre de las redes neuronales se ha mostrado crítico con los chatbots y la IA generativa, que curiosamente se basan en su propio trabajo. A él y a otros desarrolladores se les considera los arrepentidos de la Inteligencia Artificial.
Sin embargo, otros pesos pesados de la industria como Bill Gates, fundador de Microsoft (y accionista de OpenAI ) argumentan que frenar los desarrollos un verano no resolverá los problemas que vienen por delante. ¿Y qué problemas vienen? Lo que pìde la carta, por ejemplo, es trabajar sobre sesgos algorítmicos, sobre la privacidad y los cambios laborales.
Quizá el peligro que mejor esté cuantificado sea el del empleo. Periodistas, abogados, administrativos son los primeros de una larga lista de ocupaciones que se podrían automatizar. Y es que algunos teóricos comparan la irrupción de estas IA generativas (de imágenes como Dall-E o de textos como ChatGPT) con la Revolución industrial. Entonces se cambió la fuerza de trabajo físico por el uso de máquinas. Y ahora la IA está llamada a sustituir el trabajo que los humanos hemos considerado siempre propio de seres inteligentes. Además empieza a haber cálculos de la pérdida de puestos de trabajo. Un reciente informe de Goldman Sachs afirma que unos 300 millones de empleos en todo el mundo están en peligro de desaparecer. Hasta el 24% de los trabajadores europeos podrá ser sustituido por la IA. Por otro lado, también consideran que el PIB mundial podría crecer un 7% anualmente durante unos 10 años.
¿Fin de la democracia?
En los últimos tiempos, imágenes falsas como la del Papa luciendo un plumas o mandatarios haciendo discursos de mentira han aumentado la preocupación por la velocidad en los avances informáticos y los resultados, algunos descontrolados, que la IA está logrando. Se ha llegado a decir que nos movemos en una zona gris entre realidad y falsificaciones que pueden socavar la democracia. De hecho, esta semana en el Senado de los EE UU era uno de los grandes argumentos a favor de más regulación. «Vamos a enfrentarnos a unas elecciones el año que viene y estos modelos son cada vez mejores y existe la posibilidad de que la IA se utilice para manipular a los votantes y desinformar», dice en un reportaje la CNN. Hay que recordar que en 2016 la victoria de Donald Trump se vio empañada por el escándalo de Cambridge Analytics. Varios tabloides americanos afirmaban que la consultora había adquirido información de 50 millones de usuarios de Facebook con los que había influido en el resultado electoral.
Además, herramientas de generación de texto o imagen pueden usarse para robar la identidad de cualquier usuario de internet, tener acceso a información personal y financiera, etc. Esta misma semana, Samsung anunciaba que prohíbe a sus empleados el uso de esta herramienta y de otras IA tras descubrir que uno de ellos ha compartido información confidencial con la citada herramienta.
Otro problema, el de la privacidad de los datos, es lo que llevó hace un mes al gobierno italiano a prohibir el uso de ChatGPT. Aunque ya ha levantado el veto, otros países como Rusia, China o Irán mantienen la prohibición y en Europa se prepara la Ley de Inteligencia Artificial centrada entre otras cosas en la protección de los datos o en los sesgos que contienen los algoritmos. «Se ha detectado que cuando usamos estos procesos de aprendizaje automático para la toma de decisiones como la selección de personal, por ejemplo, muchos datos de los que se han usado contienen sesgos, raciales o de género», explica Vicente Botti, catedrático e investigador de Inteligencia Artificial de la Universidad Politécnica de Valencia. Otra aplicación polémica de la IA es el reconocimiento facial que en países como China o Rusia se usan para controlar los movimientos de los disidentes políticos o la libertad de prensa.
¿Serviría de algo la moratoria? «Prohibir es intentar ponerle puertas al campo, porque el programa está accesible en internet. Hay más modelos de GPT de varias empresas por lo que era cuestión de tiempo que alguno saliera», opina Botti. Lumbreras, por su parte, cree que esta aplicación ha forzado la petición de moratoria, pero que no está claro el verdadero interés que hay detrás de la misma. «La firman académicos, pero también empresas y se sospecha que puede haber interés por parte de alguna de ellas por parar los desarrollos hasta que ellas mismas alcancen el mismo nivel de competitividad. No hay garantía de lo que vayan a hacer las empresas de puertas para adentro», concluye.
¿Estamos ante una IA consciente?
Esta semana un grupo de investigadores de Microsoft afirmaban que GPT-4 está a un paso de considerarse inteligencia artificial general o AGI, es decir, que estamos ante un sistema capaz de comprender o razonar de forma casi humana. «Los planteamientos sobre la necesidad de regular mejor los desarrollos de la IA llevan varios años encima de la mesa y algunas de las reclamaciones recogidas en la carta no son precisamente nuevas. La inteligencia artificial responsable es un concepto en el que se ha trabajado desde al menos unos seis años. La Comisión Europea acuñó este término con el que se entiende una inteligencia artificial ética, confiable, explicable y segura desde el punto de vista de la ciberseguridad. Es necesario regular qué usos son correctos y qué se puede penalizar. Una regulación coercitiva para evitar el mal uso», opina Vicente Botti, investigador de la UPV.
✕
Accede a tu cuenta para comentar