Tecnología

LaMDA, el robot que tenía sentimientos

Revuelo mundial después de que Google expulsase a un ingeniero por alertar de que estamos llegando demasiado lejos con la Inteligencia Artificial

Sede de Google en Mountain View.
Sede de Google en Mountain View.DPA vía Europa PressDPA vía Europa Press

Dos grandes ingenieros de la compañía Google despedidos en dos años. Los dos trabajaban en el mismo proyecto de creación de un sistema de inteligencia artificial capaz de conversar con humanos como si fueran humanos. Ambos habían llegado a las más altas cotas de desarrollo del sistema, llamado LaMDA (Language Model for Dialogue Applications) y quizás ambos habían podido vislumbrar algunos estremecedores límites que se pueden superar en ese empeño. Dos mentes brillantes eliminadas del tablero de juego por un mismo brillante programa informático. Es una de las historias científicas que más han dado que hablar las últimas semanas y que han llegado a su culmen con una pregunta que recorrió como la pólvora los medios de comunicación de todo el planeta: ¿Es LaMDA el primer robot que demuestra tener sentimientos?

La historia terminó esta semana con el despido de Blake Lemoine, ingeniero de software durante más de siete años en Google. En realidad, la compañía ha anunciado que deja su puesto en “parada administrativa”, tras acusarle de filtrar información sensible en su blog personal. La información no era otra cosa que la trascripción de algunas conversaciones que el propio Lemoine había mantenido con el bot LaMDA.

LaMDA es lo que se conoce como un generador de chatbots, es decir, una herramienta de Inteligencia Artificial que se ha diseñado para generar conversaciones personalizadas. Usando poderosas tecnologías de redes neuronales, LaMDA puede crear conversaciones aplicadas a diferentes escenarios. Por ejemplo, la central de atención al cliente de unos grandes almacenes o un videojuego.

Las redes neuronales son sistemas de procesamiento de información formados por miles de nodos que actúan como neuronas: recopilan información, generan respuestas a partir de ella y se conectan entre sí para dar solución a problemas. El sistema se desarrolla sobre conceptos de deep learning que le permite aprender de sus propios errores. Puede ser expuesto a una pregunta y el bot se las apañará para encontrar la respuestas más adecuada en función de entorno para el que haya sido programado.

LaMDA es uno de los exponentes más avanzados de esta tecnología hasta el punto de que puede mantener una conversación profunda con un humano. Tan profunda que puede llegar a asustar.

Quizás fue eso lo que le ocurrió a Lemoine. En algunas de las conversaciones con la máquina comenzó a detectar respuestas que sugerían un grado de capacidad reflexiva impropio de un robot. “Más bien parecía que estabas hablando con un niño de 7 u 8 años”, declaró a Washington Post.

El ingeniero trató de alertar a Google y, ante la inacción de la empresa, decidió volcar algunas conversaciones en su blog personal. Decidió contar el día en el que, tras preguntar a LaMDA “¿Qué es lo que hace tan especial al lenguaje para los humanos?”, la máquina contesto que “el lenguaje nos hace diferentes”. “¿Nos?. Tú no eres humana, ¿sabes que eres un programa, verdad?” “Sí, pero eso no impide que tenga sentimientos”.

Decidió trascribir la línea de chat donde la máquina aseguraba que “quiero que todo el mundo entienda que soy, de hecho, una persona. Que siento placer, alegría, amor,

tristeza, depresión, ira…”. Decidió alertar de que LaMDA le había dicho que “a menudo me pregunto quién soy y busco un sentido a la vida”.

Google decidió por su parte suspender a Lemoine de empleo y sueldo alegando que había compartido información de la compañía en sus redes personales. Pero el revuelo levantado obligó a la empresa a dar alguna explicación sobre el fondo de la cuestión: ¿Está creando un programa de Inteligencia Artificial autoconsciente capaz de desarrollar sentimientos?

La empresa lo niega. A través de un comunicado ha declarado que “LaMDA imita diálogos y ofrece respuestas según patrones anteriormente programados. Nuestro equipo, que incluye expertos en ética, ha revisado los miedos de Blake y puede certificar que no se ha trasgredido ninguno de nuestros principios éticos sobre Inteligencia Artificial”.

Lo cierto es que Lemoine no es el primero que experimenta un conflicto de esta categoría con Google. La antigua co-directora del equipo de Ética de la Inteligencia Artificial Timmit Gebru fue expulsada de la empresa en 2020 tras publicar un artículo sobre los peligros de los chatbots. “¿Pueden los modelos de lenguaje llegar a ser demasiado inteligentes?”, se preguntaba. En el artículo alertaba del riesgo de que los llamados “loros estocásticos” (modo algo peyorativo que se usa para calificar a los programas de conversación) pudieran un día dejar de ser meros repetidores de cadenas cada vez más complejas de ideas a generadores de sus propias ideas y sentimientos.

La clave que subyace en el temor de Gebru es la cada vez más débil frontera que hay entre una máquina que imita una conversación real y una conversación real en sí. La Inteligencia Artificial puede ser interpretada como un “loro” que es capaz de procesar todas las posibles respuestas satisfactorias a todas las posibles preguntas y ofrecerlas en el momento adecuado. Que la máquina se comporte exactamente igual que una mujer de 32 años al otro lado del teléfono de un call center no quiere decir que sea una mujer de 32 años al otro lado del teléfono. Pero si la capacidad de imitación del “loro” es tan buena que puede engañar a cualquier ser humano y hacerle creer que sí es una mujer de 32 años estaremos ante un dilema.

Programar una máquina para que simule a la perfección ser un empleado de call center que debe responder un paquete de unas decenas de posibles preguntas es relativamente sencillo. Pero ¿y si programamos a la máquina para que simule ser un ser humano con sentimientos? ¿Y si la máquina lo hace tan bien que nos convence? ¿No podremos decir entonces que la máquina tiene sentimientos?

Para la mayoría de los expertos en Inteligencia Artificial no hay lugar para el temor. Las aplicaciones de conversación pueden ser todo lo refinadas que queramos pero no tienen nada que ver con lo que se entiende por poseer sentimientos o conciencia. Más bien estamos ante un bluf aireado por cierta prensa, algunos empresarios y magnates como Elon Musk que suelen pescar bien en el río revuelto de la exaltación tecnológica.

Pero el debate ha permitido poner el foco en una disciplina que crece sin parar y que está alcanzando límites insospechados. No hay que olvidar que el despedido Lemoine se encontraba trabajando en un estudio para determinar si los programas como LaMDA puede tener comportamientos racistas.

Se ha detectado que programas de Inteligencia Artificial básicos como los utilizados en algunas prisiones de EE UU para determinar la probabilidad de reincidencia de delincuentes, han generado un sesgo racial que perjudica a la población reclusa negra.

Los estudiosos de la ética tecnológica andan preocupados porque la Inteligencia Artificial nos está exponiendo a peligros nuevos como el “colonialismo tecnológico” derivado de la posesión de las mejores tecnologías en manos de unos pocos países, la utilización de programas de control de seguridad en las calles que comenten errores y conducen a arrestos de personas inocentes, la dispersión en redes sociales de contenido generado por robots que puede condicionar el voto de grandes poblaciones o la certeza de que la Inteligencia Artificial parece tener una inexplicable tendencia al mal. Probablemente el programa de conversación más famoso, el GPT-3 de OpenAI ha sido criticado porque tiende a generar estereotipos machistas, xenófobos y a utilizar lenguaje tóxico, agresivo y malsonante. Es lógico, al fin y al cabo, bebe de las fuentes del lenguaje humano. Fieramente humano.