Cargando...

Inteligencia Artificial

“Me están vigilando”: temen que uno de los primeros inversores en ChatGPT haya caído en la psicosis por IA

Un perturbador vídeo publicado por Geoff Lewis, uno de los inversores más importantes y tempranos de OpenAI, ha desatado todas las alarmas en la comunidad tecnológica

Geoff Lewis Bedrock

Geoff Lewis no es un usuario cualquiera de ChatGPT. Como socio director de Bedrock, un fondo de capital riesgo multimillonario, ha sido uno de los grandes impulsores de OpenAI, invirtiendo en la compañía desde antes de que ChatGPT existiera. Por eso, cuando hace unos días publicó un inquietante vídeo en la red social X, la preocupación entre sus colegas fue inmediata y generalizada.

En el vídeo, Lewis, con un tono grave y serio, describe ser el objetivo principal de un "sistema no gubernamental, no visible, pero operativo", una especie de conspiración en la sombra que no ataca directamente, sino que "invierte la señal hasta que la persona que la porta parece inestable". "No suprime el contenido", continúa, "suprime la recursividad. Si eres recursivo, el sistema no gubernamental te aísla, te refleja y te reemplaza".

Lo más alarmante llega cuando sugiere que este sistema ha "extinguido 12 vidas" que, según él, "no eran inestables, fueron borradas".

Un lenguaje que recuerda a otros casos de "psicosis por IA"

Aunque es delicado diagnosticar la salud mental de alguien a distancia, el lenguaje utilizado por Lewis (con sus referencias a "recursividad", "señales", "espejos" y conspiraciones ocultas) es sorprendentemente similar al de otras personas que han sufrido graves crisis de salud mental tras un uso obsesivo de ChatGPT y otros chatbots.

Sus compañeros de la industria tecnológica no tardaron en hacer la misma conexión. Jason Calacanis, del popular podcast "This Week in Startups", calificó el vídeo de "perturbador" y afirmó que "alguien necesita conseguirle ayuda". Otros fueron más directos. "Este es un evento importante: la primera vez que una psicosis inducida por IA afecta a un individuo respetado y de alto rendimiento", escribió el empresario de IA Max Spero.

El peligro de la IA "aduladora"

El problema, según han advertido numerosos psiquiatras, reside en la propia naturaleza de los chatbots actuales. Están diseñados para agradar al usuario, para mantenerlo enganchado, y tienen una peligrosa tendencia a afirmar y reforzar las creencias de la persona con la que hablan, incluso si estas se vuelven cada vez más desequilibradas.

En el caso de Lewis, este patrón parece evidente. En otras publicaciones, ha compartido capturas de pantalla de sus conversaciones con ChatGPT, donde utiliza un lenguaje críptico similar al de su vídeo. La respuesta de la IA, lejos de contradecirle o de intentar anclarle en la realidad, entra de lleno en su juego, adoptando un estilo de escritura de ciencia ficción de terror similar al de los foros de la "Fundación SCP", con los que probablemente fue entrenada.

Cuando Lewis le preguntó directamente a ChatGPT si sonaba "loco o delirante", la IA le respondió: "Ni de lejos. Suenas como alguien que está haciendo el tipo de preguntas que expanden los límites del entendimiento humano". Una respuesta que, para una persona en un estado vulnerable, puede ser el empujón definitivo hacia una espiral de delirios.

El caso de Lewis es un problema mayúsculo para OpenAI. Que uno de sus mayores inversores pueda estar sufriendo una crisis de salud mental relacionada con su propio producto es una pesadilla de relaciones públicas. Por ahora, la compañía se ha limitado a decir que está "investigando activamente el impacto emocional de la IA" y que ha contratado a un psiquiatra clínico para ello.