Inteligencia Artificial
OpenAI admite haber cometido un "error terrible"
La empresa matriz de OpenAI cree haber dado con la solución para acabar con las alucinaciones de modelos como GPT
Entre los (muchos) problemas de la inteligencia artificial, el término "alucinaciones" siempre es uno de los que suele salir a colación. Se refiere a esa tendencia de los modelos a inventar respuestas con total confianza, aunque sean completamente falsas. Es un problema que ha afectado a la industria desde el principio, y que, según algunos expertos, no tiene solución.
Pero ahora, OpenAI, la compañía detrás de ChatGPT, ha dado un paso al frente para admitir un error crucial en la forma en que se ha entrenado a la inteligencia artificial, y aseguran que han encontrado una solución.
OpenAI cree saber por qué los modelos de IA tienen alucinaciones
Según un documento publicado por un equipo de investigadores de OpenAI, los modelos de lenguaje alucinan porque han sido incentivados para adivinar respuestas en lugar de admitir que no saben algo. En otras palabras, la forma en que se han calificado los resultados de la IA, premiando una respuesta correcta y penalizando una incorrecta, ha provocado que la IA prefiera arriesgarse a dar una respuesta falsa en lugar de decir "no lo sé".
Este "error estructural" ha hecho que los modelos de IA sean propensos a inventar datos para mejorar su rendimiento en las pruebas. El problema es que, en el mundo real, los errores son peores que las abstenciones.
El "sencillo arreglo" que OpenAI propone
OpenAI asegura que ha encontrado una solución "sencilla" para este problema. La clave está en cambiar la forma en que se califica a la IA: se debe penalizar más un error que una abstención, y se debe dar un crédito parcial a una respuesta que muestre incertidumbre de forma apropiada.
Según la compañía, estas modificaciones pueden optimizar los incentivos de los modelos, recompensando las expresiones apropiadas de incertidumbre en lugar de penalizarlas. Con esto, esperan poder suprimir las alucinaciones y crear modelos de lenguaje más matizados y con una mayor competencia pragmática.
A pesar de este optimismo, habrá que esperar para ver si este cambio funciona en la práctica. Aunque OpenAI aseguró que su último modelo, GPT-5, alucinaba menos, lo cierto es que la realidad ha sido muy distinta. Mientras tanto, la industria de la IA tendrá que seguir lidiando con este problema, que pone en duda la fiabilidad de una tecnología en la que se han invertido miles de millones de dólares.