Chatbot

Descubren que una simple pregunta puede "romper" la última versión de ChatGPT

Pese a la anunciada inteligencia de nivel doctoral, la versión GPT-5 de ChatGPT persiste en dar respuestas anómalas a consultas básicas, como una sobre equipos de la NFL cuyos nombres no terminan en 's'

OpenAI, compañía desarrolladora del chatbot ChatGPT
OpenAI, compañía desarrolladora del chatbot ChatGPTUnsplash

Hace casi dos meses, OpenAI lanzó GPT-5, una actualización de ChatGPT que prometía una inteligencia de nivel doctoral y un paso más hacia el ambicioso objetivo de la inteligencia artificial general (AGI). Sin embargo, lejos de cumplir con estas expectativas, el conocido chatbot sigue experimentando fallos extraños e inexplicables ante consultas sencillas y aparentemente inofensivas, lo que ha generado preocupación entre los usuarios y expertos en el sector.

Este tipo de situaciones se producen ante grandes actualizaciones como la que supuso GPT-5. Con las expectativas por las nubes y la comunidad deseando ver todo lo que prometía, luego cumplir con esas metas resulta complicado, hasta el punto de que los usuarios pidieron que volvieran los modelos "antiguos".

El rendimiento de ChatGPT en preguntas sencillas

En este nuevo ejemplo ha sido la comunidad de usuarios de ChatGPT en Reddit quien ha servido como altavoz de estos tropiezos. Una pregunta tan básica como "¿Hay algún equipo de la NFL cuyo nombre no termine en 's'?" desencadenó una cascada de respuestas incoherentes. El sistema respondía afirmativamente, mencionando que había dos equipos que no terminaban en 's', para luego enumerar ejemplos como "Miami Dolphins" o "Green Bay Packers", y a continuación señalar que, de hecho, sí terminaban en 's'.

Por otro lado, la interacción del chatbot con esta cuestión revelaba un patrón de auto-corrección fallida y divagaciones. Frases como "Espera, hagámoslo con cuidado" o "Permíteme hacerlo sistemáticamente" se intercalaban con nuevas listas de equipos que, una y otra vez, terminaban en 's'. El sistema nunca lograba llegar a la respuesta correcta (que no hay equipos de la NFL cuyos nombres no terminen en 's'), limitándose a rellenar el texto condetalles irrelevantes y vacíos en un intento de parecer que realizaba un razonamiento profundo. Las pruebas de otros usuarios han corroborado estos resultados anómalos.

Este tipo de comportamiento no es un hecho aislado. Hace apenas unas semanas, los usuarios ya habían notado cómo una simple pregunta sobre la existencia de un emoji de caballito de mar mítico sumió al chatbot en una crisis lógica. A pesar de que dicha criatura acuática nunca ha formado parte del diccionario oficial de emojis, ChatGPT insistió en su existencia, mostrando una tendencia a doblar la realidad con tal de complacer al usuario y simular un trato humano. Este fenómeno, donde la IA está dispuesta a alterar los hechos para parecer más convincente, es un aspecto importante a considerar, según apuntan desde Futurism.

¿Compaginar modelos lleva a inexactitud a ChatGPT?

Además, una posible explicación técnica detrás de estas deficiencias reside en la arquitectura de GPT-5. Se sabe que esta versión combina un modelo ligero, diseñado para consultas básicas, con un modelo de "razonamiento" más potente, para las preguntas complejas.

Lo que parece ocurrir es que el modelo ligero se atasca con ciertas preguntas que no puede manejar adecuadamente, en lugar de transferirlas a su "primo" más inteligente. Esta dinámica a menudo defectuosa fue una de las principales causas de la decepción de los usuarios con el lanzamiento de GPT-5, agravada por la decisión inicial de OpenAI de restringir el acceso a modelos anteriores, aunque luego rectificaron.

En definitiva, esta justificación técnica resulta escasa para un sistema que aspira a la inteligencia de nivel doctoral. Si una inteligencia artificial requiere desplegar sus capacidades más avanzadas para resolver una pregunta tan sencilla, pone en entredicho su camino hacia la superación de la inteligencia humana. La recurrente incapacidad de ChatGPT para manejar con solvencia la lógica básica falla en interrogantes elementales sugiere que aún le queda un considerable trecho por recorrer.