Inteligencia artificial

Acabar con las "alucinaciones" de ChatGPT podría ser la peor decisión de negocio para OpenAI

Investigadores de OpenAI han descubierto el origen de las "alucinaciones" de la IA y plantean una corrección que, según un experto, es económicamente inviable y podría frustrar a los usuarios si los sistemas admiten más dudas

ChatGPT es el chatbot de IA de OpenAI
ChatGPT es el chatbot de IA de OpenAIDifoosion

Los modelos de inteligencia artificial (IA) más avanzados, como el que impulsa ChatGPT, padecen un problema persistente conocido como "alucinaciones", donde el sistema ofrece aserciones falsas de manera categórica y con una confianza notable. Esta cuestión, sobre la que la propia compañía que lidera Sam Altman considera haber obtenido una solución, ha supuesto una crisis de reputación en las últimas semanas.

No obstante, mientras OpenAI proponía una "solución directa" —ajustar las evaluaciones para penalizar los errores confiados más que la incertidumbre, dando crédito parcial a expresiones de desconocimiento—, un experto ha alertado de que esta medida podría acarrear una realidad empresarial devastadora, aunque a todas luces necesarias si tenemos en cuenta los últimos casos provocados por interacciones con el chatbot.

El dilema económico de la precisión en la inteligencia artificial

A este respecto, Wei Xing, profesor de la Universidad de Sheffield y experto en optimización de IA, ha argumentado en un ensayo publicado en The Conversation que la industria no tendría incentivos económicos para implementar estos cambios, pues podrían aumentar de forma sustancial los costes operativos. Además, la tendencia de una IA a admitir repetidamente que no conoce una respuesta con un grado suficiente de confianza podría disuadir a los usuarios, quienes suelen preferir una respuesta categórica, aunque sea errónea, tal como recoge Futurism.

Según sus investigaciones, la raíz del problema radica en cómo se evalúa el rendimiento de estos grandes modelos de lenguaje. Descubrieron que los modelos están "optimizados para ser buenos realizando pruebas", lo que fomenta que la IA tienda a adivinar en la incertidumbre para mejorar su puntuación global. Esta estrategia, aunque podría ser útil en un examen, resulta sumamente peligrosa cuando se trata de brindar asesoramiento de calado en áreas como la medicina o el derecho.

Asimismo, Xing sostiene que si ChatGPT se limitara a reconocer su ignorancia en apenas un 30% de las ocasiones, los usuarios podrían sentirse usuarios rápidamente frustrados y optar por otros sistemas. La experiencia de los consumidores actuales se basa en recibir respuestas seguras a prácticamente cualquier consulta, lo que generaría un abandono masivo de estas plataformas si la confianza se viera comprometida por la incertidumbre.

Por otro lado, aunque existen métodos establecidos para cuantificar la incertidumbre, su aplicación en los modelos de IA exigiría más capacidad de computación que los enfoques actuales, ya que requeriría evaluar múltiples respuestas posibles y estimar los niveles de confianza asociados.

Para un sistema que gestiona millones de consultas diarias, esto se traduciría en costos operativos más elevados, algo difícil de asumir para compañías que ya han invertido miles de millones de euros en infraestructura con retornos de inversión que se anticipan a muy largo plazo.

Teniendo todo esto en cuenta, el análisis de Xing subraya una verdad incómoda: los incentivos comerciales que guían el desarrollo de la IA de consumo están incentivos comerciales desalineados con la reducción de las alucinaciones. Mientras adivinar siga siendo la opción más económica y asequible, este fenómeno probablemente persistirá en los sistemas de inteligencia artificial orientados al gran público.