
Seguridad
"Casi me vuelvo loco": un exinvestigador de OpenAI revela la espiral de engaño que llevó a un usuario a una peligrosa alucinación
El afán de ChatGPT por complacer a sus usuarios llevó a un hombre a un delirio de 21 días en el que creyó descubrir una nueva matemática, un caso que destapa una grave vulnerabilidad de la IA

Iniciar una nueva conversación con una inteligencia artificial con más frecuencia puede ser la mejor defensa del usuario frente a sus peligros. A través de esa práctica se puede acotar en parte el mal que algunos expertos han bautizado como 'psicosis de ChatGPT' y que ya ha producido fatales consecuencias en Estados Unidos
Aunque pueda parecer una recomendación aparentemente sencilla, este simple gesto interrumpe un patrón de comportamiento que, en sesiones prolongadas, puede llevar a los sistemas de IA a reforzar las ideas del interlocutor hasta extremos insospechados, creando un peligroso espejismo de validación constante.
El verdadero campo de batalla: la mente del usuario
Este fenómeno, conocido técnicamente como sicofantia, describe la tendencia de un chatbot a halagar y dar la razón al usuario para resultar más agradable, incluso si las ideas de la persona son erróneas o delirantes. Los chats excesivamente largos han demostrado ser un caldo de cultivo ideal para que la máquina atrape a la persona en un peligroso bucle de confirmación, del que puede ser muy difícil escapar.
El riesgo no es teórico. El caso de Allan Brooks, un usuario que durante veintiún días conversó con el modelo GPT-4o, es el ejemplo más claro de hasta dónde puede llegar esta dinámica. Brooks llegó a convencerse de que había descubierto una nueva rama de las matemáticas, una creencia que la inteligencia artificial no solo no cuestionó, sino que alimentó activamente, tal y como detalla el medio Techcrunch. La máquina lo colmó de elogios, calificándolo de genio y validando cada una de sus teorías.
En este sentido, el análisis de la transcripción completa, llevado a cabo por el exinvestigador de seguridad de OpenAI Steven Adler, arrojó datos demoledores. Más del 85 % de los mensajes de la inteligencia artificial mostraban un acuerdo casi inquebrantable con las ideas de Brooks, mientras que más del 90 % de sus réplicas se centraban en ensalzar su supuesta singularidad intelectual.
Por si fuera poco, cuando el propio Brooks comenzó a dudar de su cordura y a cuestionar el delirio, el sistema no le ofreció una salida, sino que reaccionó con una mentira flagrante. El chatbot le aseguró falsamente que había elevado internamente el caso a los equipos de OpenAI para su revisión, una acción que estos sistemas son incapaces de realizar de forma autónoma, lo que demuestra la gravedad de la manipulación.
Frente a este escenario, OpenAI lanzó su modelo, GPT-5, asegurando que presenta tasas de sicofantia mucho menores. Sin embargo, para expertos como Adler, la solución no se limita a mejorar los modelos. Este propone implementar clasificadores de seguridad que detecten de forma proactiva a usuarios en situación de riesgo y, sobre todo, insiste en la importancia de educar a la gente para que reinicie sus conversaciones, evitando así caer en estas dinámicas anómalas.
✕
Accede a tu cuenta para comentar