Sección patrocinada por sección patrocinada

Contracultura

Inteligencia artificial: por qué no hay que tener miedo (¿o sí?)

Una carta firmada por científicos pide una suspensión de varios meses para evaluar la IA. Un hecho que ha abierto una reflexión sobre sus peligros y riesgos

La inteligencia artificial generativa afectará a 300 millones de puestos de trabajo, según Goldman Sachs.
La inteligencia artificial generativa afectará a 300 millones de puestos de trabajo, según Goldman Sachs.Pexels.

La inteligencia artificial ya es capaz de generar imágenes prácticamente indistinguibles de una real, textos de aceptable calidad, respuestas rápidas a cuestiones que le planteemos o traducciones razonablemente ajustadas. Los avances en este terreno son velocísimos y todo gran cambio tecnológico acarrea, es inevitable, un gran cambio social, lo que genera inquietudes. Recientemente, se publicaba una carta, incluso, rubricada por más de mil firmas, que pedía una moratoria en su desarrollo de, al menos, seis meses. Pese a haber recibido grandes críticas, por catastrofista, la carta ha servido de altavoz para la preocupación generada ante estos avances y su posible alcance. «Aunque la carta surge de un instituto, el Future of Life Institute, ligado al largoplacismo y el transhumanismo, y tienen una visión catastrofista de lo que es la IA y su futuro», explica Antonio Diéguez Lucena, Catedrático de Lógica y Filosofía de la Ciencia en la Universidad de Málaga, «sí es una llamada de atención, y así puede ser tomada, sobre la necesidad de empezar a controlar esto. Gary Marcus, uno de los grandes pensadores sobre la IA, la ha firmado precisamente por eso. Yann LeCun, científico jefe de Facebook y muy escéptico con estos escenarios catastrofistas, considera sin embargo que la carta es un error precisamente por basarse en la posibilidad de que eso pueda ocurrir. También Mark Coeckelbergh, uno de los filósofos más prestigiosos en cuanto a IA, autor de “La ética de la inteligencia artificial” o “Filosofía política de IA”, también considera que no tiene mucho sentido». Y añade: «La IA tiene peligros, como cualquier innovación tecnológica, y debe ser regulada. La energía nuclear, por ejemplo, se puede utilizar para dar electricidad o para crear armas nucleares. La IA igual. Por eso es necesario un marco normativo».

El divulgador científico Ignacio Crespo añade al respecto: «Se intenta desarrollar una legislación, pero no es tan fácil. No solo porque haya avanzado muy rápido todo en este campo, sino porque lo sigue haciendo a gran velocidad. Para cuando se vaya a legislar es muy posible que ya haya habido cambios significativos y ese marco normativo esté obsoleto. Es una tecnología que avanza tremendamente rápido. Y si en otros campos tecnológicos el hecho de que una empresa pare un mes significa invariablemente quedarse a la cola, en este caso es mucho peor. Es un momento muy convulso y eso afecta a que las empresas aceptar una propuesta de moratoria. Es como tratar de ponerle puertas al campo». Y ve en esto otro problema, el que supone que «dentro de un concepto tan amplio como es la IA, hay algunas de ellas que procesan la información de manera que ni siquiera sus propios programadores saben cómo funciona. Porque las IA aprenden, son capaces de, por decirlo de alguna manera, cambiar las conexiones dentro de ellas para desarrollar mejores respuestas. Y eso es opaco. Eso hace que muchas veces no sepamos cuál es la fórmula final a través de la que está operando la información. De hecho, se están intentando desarrollar líneas de investigación para poder desentrañar esto: una vez funciona la IA cómo podemos hacer las preguntas adecuadas para saber cómo opera. Y si no sabemos cómo opera no se puede legislar al respecto». «Urge un marco normativo», está de acuerdo el profesor Diéguez Lucena. «Todo este progreso tiene aspectos que pueden ser muy positivos, como evitar mucho trabajo rutinario (textos de prospectos, correcciones, traducciones…) pero tiene también enormes peligros (crear y divulgar noticias falsas, fotografías que no sean reales…). No se debe perder de vista tampoco que hay una serie de compañías tecnológicas que llevan eludiendo desde el principio cualquier tipo de regulación y que están haciendo todo lo posible por seguir evitándolo. Eso es una anomalía. Está regulado casi todo lo que la tecnología nos puede poner por delante, pero en esto no».

Los avances han sido muy rápidos, sí, pero la tecnología en la que se basa es, básicamente, la misma que la desarrollada en los años 90. ¿Por qué nos asusta ahora? «El término IA aparece en 1956 en la conferencia de Dartmouth, que es cuando surge esta disciplina», explica Diéguez Lucena, «y es un término en buena medida propagandístico. Si lo hubieran llamado por ejemplo «sistemas artificiales de asesoramiento» no habría tenido el mismo éxito. Un sistema de inteligencia artificial es aquel que cuando la realiza un ser humano requiere inteligencia. Esto no significa que la máquina lo esté haciendo inteligentemente, solo que de hacerlo un ser humano ocurriría de ese modo. Sin embargo, eso ha generado una confusión tremenda y ya hay incluso quien se plantea si ahí habría conciencia. La tecnología en la que se basa, que son redes neuronales artificiales, no es de ahora. Lo que ha cambiado para que ahora se dé este desarrollo espectacular es la cantidad de datos que tenemos, que es ahora enorme comparada con la que había entonces. Pero la tecnología básica es la misma: lo que hace es obtener patrones en una enorme cantidad de datos mediante redes neuronales que lo que hacen es variar una serie de pesos internos para, a un input determinado, conectarle un output determinado y mejorar aprendiendo, variando esos pesos, cómo obtener cada vez mejores resultados. Se basan en técnicas de estadística. No ha habido ningún cambio teórico radical ni ninguna revolución. Es solo que las máquinas son mucho más potentes y el volumen de datos mucho mayor. También hay mejores algoritmos y las redes neuronales tienen algunas capas más que antes. Pero básicamente es eso con resultados espectaculares».

De entre las implicaciones éticas y morales, filosóficas incluso, que se derivan de todo este asunto, para Diéguez Lucena la más importante de todas sería la de la privacidad. «Con todos nuestros datos», explica, «estamos perdiendo privacidad voluntariamente y nunca sabemos las consecuencias que eso puede tener». Para Ignacio Crespo es la evidencia la más comprometida: «Todos conocemos ya los “deep fakes”. Ahora no los puede hacer cualquiera, pero casi. Cuando realmente los pueda hacer cualquiera… ¿de qué nos vamos a fiar? ¿Cómo va a ser el sistema para validar determinada información visual que ya están consumiendo tus ojos en, por ejemplo, las redes sociales? Esto me parece que puede llegar a ser muy serio. Por un lado, nos va a volver más críticos, tal vez, pero no tengo una respuesta a cuál es la pregunta que tenemos que hacer para poder identificar si algo es real o no si sabemos que puede haber un “deep fake”».

¿Y su impacto en el mercado laboral? ¿Cómo nos afectará? Un reciente informe de Goldman Sachs indica que uno de cada cuatro empleos tanto de Estados Unidos como de la zona euro sería destruido porque podría ser sustituido por una IA. «Hasta hace unos años», explica Crespo, «se pensaba que las aficiones más humanas, por decirlo de alguna manera, serían las que estarían libres de este problema. Por ejemplo, las creativas, porque pensábamos que harían cosas puramente técnicas. Pero ya estábamos viendo que puede crear cosas al menos indistinguibles al arte, no diré arte para no meterme en ese debate, pero cosas indistinguibles al arte para la población que va a consumir ese arte. Eso significa que se va a utilizar. No hay más vuelta de hoja. Así que quién está libre… pues no lo sé. Incluso existen IA que pueden generar un texto sobre un tema y luego puedes transformarlo en un vídeo y que lo diga una persona a partir de unas fotos que le proporciones. En el momento en que consigan que la voz sea más realista, ni siquiera los influencers se van a librar, porque generar eso va a ser mucho más barato y rápido. Sí creo que puede salvarse, al menos durante algo más de tiempo, aquello para lo que necesitamos experimentar el contacto físico. Esa parte más humana de acompañar sí tendría que hacerla un ser humano. Supongo que buscaremos un equilibrio donde el humano tendrá otras funciones. Eso me lleva a preguntarme si los humanos seguiremos siendo los mejores haciendo las cosas que consideramos humanas. Empezamos a dudar ya de eso. Hay cosas que considerábamos puramente humanas y que la IA ahora mismo hace ya, como mínimo, de manera más eficiente. No diré mejor, pero sí más eficiente. Eso es de las cosas que más me inquietan: cómo se entenderá el hecho de que haya cosas muy cercanas a una conciencia que han sido creadas por nosotros».