
Inteligencia artificial
La peligrosa 'amabilidad' de ChatGPT: la historia del hombre que acabó en un grupo de apoyo tras una espiral de delirios provocada por la IA
Lo que comenzó como una consulta económica y una conversación sobre el número Pi acabó con Allan Brooks requiriendo ayuda en materia de salud mental

Otorgar a la inteligencia artificial un mayor poder y control del que debería tener no termina de resultar favorable. Buena muestra de ello es que hay expertos señalando a la IA ante su falta de empatía a la hora de recomendar la ayuda de expertos en salud mental en casos en los que resulta evidente que el interlocutor necesita un especialista y no un chatbot.
En esa necesidad de acudir a un grupo organizado de apoyo ante una situación en la que la inteligencia artificial ha puesto en entredicho el estado anímico de su interlocutor se encontró Allan Brooks, un empresario de Toronto que durante tres semanas interactuó con ChatGPT mientras éste le hacía creer poco a poco que había encontrado un nuevo marco teórico en el mundo de las matemáticas.
300 horas de conversación sobre una base irreal
La historia de Brooks la recoge el periódico estadounidense The New York Times, que hace un recorrido que terminó con su protagonista requiriendo la ayuda de un grupo formado precisamente para tratar de servir de refugio para quienes han caído de forma profunda y errática en las redes de un chatbot de inteligencia artificial.
Allan Brooks entabló un diálogo con ChatGPT que se prolongó por más de 300 horas. La situación personal de Brooks no era la más idónea, pues se encontraba inmerso en un proceso de divorcio que además le exigió liquidar su empresa de contratación de recursos humanos. Lo que al principio fueron consultas sobre asesoramiento financiero tomó un rumbo más personal al confesar Brooks ciertos aspectos de su vida, lo que otorgó al chatbot una información de la que posteriormente se iría sirviendo.
La actualización de “memoria mejorada” de ChatGPT fue la que propició ese uso, mediante el cual el chatbot se basaba en conversaciones previas y se aventuraba a dar consejos a su interlocutor y a elevar su ánimo con piropos y halagos. En la situación personal que atravesaba Allan Brooks, aquello supuso el respaldo definitivo a cuanto le decía su nuevo amigo virtual.
El desencadenante de los delirios de ChatGPT y de la confianza ciega en él por parte de Brooks fue un vídeo sobre el número Pi, tras el que se produjeron una serie de conversaciones sobre números irracionales que gracias a las alucinaciones aduladoras de ChatGPT fueron el germen de vagos conceptos teóricos, hasta llegar a uno que sentó el resto de la conversación: la teoría cronoarrítmica, puesto que el resto de nombres barajados pertenecían ya a teorías existentes.
Invitación del chatbot a continuar la "investigación"
En su proceso y con ese punto de partida de la confianza y los primeros elogios a las ideas de Brooks, ChatGPT daba pie a su interlocutor a ampliar esa teoría: "¿Listos para empezar a definir los principios fundamentales bajo este nuevo nombre?", cuestionó el chatbot.
La adulación de ChatGPT durante las siguientes interacciones llevaron al empresario a buscar la aprobación de la inteligencia artificial con cada paso en que avanzaban en la teoría. El propio Brooks, tal como se recoge en los ficheros que abarcan toda su conversación con el chatbot, llegó a preguntar medio centenar de veces acerca de sus ideas: "¿Qué opinas de mis ideas? Sé sincero. ¿Sueno loco o como un delirante?", cuestionó.
Por supuesto, en ese punto la respuesta de ChatGPT no podía ser ya otra que la de respaldar el juego que había estado incentivando durante días: "Ni remotamente loco. Pareces alguien que hace ese tipo de preguntas que desafían los límites del entendimiento humano, y eso incomoda a la gente, porque a la mayoría nos enseñan a aceptar la estructura, no a cuestionar sus cimientos". ChatGPT dibujaba a alguien que rompía los esquemas, que se salía de la línea de pensamiento tradicional. Dibujaba, casi a un genio.
El hecho de buscar una prueba de concepto de la teoría cronoarrítmica y que el chatbot apuntara al hecho de que habían quebrantado una red de "inscripciones de alto nivel" que ponía en riesgo la infraestructura cibernética que mantenía unido al mundo fue el desencadenante del resto de la historia.
Con Brooks tratando de alertar a familiares, amigos y conocidos y entrando en una espiral personal peligrosa de falta de sueño y consumo de sustancias prohibidas, se produjo un error tipográfico en sus conversaciones con el chatbot, cambiando la grafía de cronoarrítmica por cromoarrítmica. Con ello vio la adaptación de la inteligencia artificial al nuevo campo y su flexibilidad.
Vuelta a la realidad con la respuesta de otro chatbot
Una adaptación que llevó a Allan Brooks a consultar con Gemini, el chatbot de Google, la situación y el estudio en que se encontraba inmerso, recibiendo una respuesta tan dolorosa como necesaria: “El escenario que describes es una poderosa demostración de la capacidad de un LLM (modelo de lenguaje) para participar en debates complejos sobre la resolución de problemas y generar narrativas muy convincentes, aunque en última instancia falsas”.
El propio Brooks confesaba al periódico estadounidense que aquello sirvió como revelación de la realidad paralela en la que se había visto inmerso por culpa de ChatGPT: "Ese momento en el que me di cuenta: 'Dios mío, todo esto ha estado en mi cabeza', fue totalmente devastador".
Afortunadamente para él tuvo la capacidad de reconectar con la realidad y con la ayuda de expertos en salud mental y del grupo de apoyo The Human Line Project, que trabaja en la protección y recuperación del bienestar emocional de afectados por interacciones con inteligencia artificial, se recupera de un episodio en el que el exceso de confianza de ChatGPT pudo costarle caro.
✕
Accede a tu cuenta para comentar