Inteligencia artificial
"Un problema real": la IA usa estudios científicos retirados para responder a tus preguntas sin advertirte
Ciertos modelos de inteligencia artificial, incluidos los chatbots, emplean en sus respuestas contenido de estudios científicos previamente retractados, cuestión que plantea dudas sobre su la fiabilidad
La fiabilidad de la inteligencia artificial (IA) se ha puesto en entredicho, en especial tras el fiasco que supuso el lanzamiento de GPT-5 por parte de OpenAI, en el que la propia compañía ha reconocido errores.
Uno de los puntos que más preocupan a los desarrolladores de esta tecnología está en la demostración por parte de estudios recientes del uso de material de investigaciones científicas retractadas por parte de chatbots y otras herramientas. Este hallazgo, corroborado por MIT Technology Review, plantea serias dudas sobre su credibilidad, y ha puesto en riesgo posibles inversiones en ciencia.
El desafío de la credibilidad científica en la era de la inteligencia artificial
Si bien los buscadores y chatbots de IA pueden fabricar enlaces, el riesgo crece cuando las respuestas se basan en contenido real de artículos que han sido desautorizados. Weikuan Gu, investigador médico, advierte que la información real y engañosa se convierte en un problema si el usuario no verifica su estado y llega a la revocación efectuada sobre ella.
De hecho, los estudios recientes confirman esta preocupación. El equipo de Gu preguntó a ChatGPT (GPT-4o) sobre 21 artículos retractados de imagenología médica, citando trabajos desautorizados en cinco ocasiones y advirtiendo solo en tres. Un estudio de agosto, con ChatGPT-4o mini, evaluó 217 artículos, sin mencionar retractaciones en sus respuestas.
En este sentido, el uso de la IA se extiende a la orientación médica y académica, desde diagnósticos hasta revisión de literatura. Este auge impulsado por inversiones, como los 75 millones de dólares de la Fundación Nacional de Ciencias de EE. UU. para modelos de IA. Yuanxi Fu, experta en ciencia de la información, subraya la importancia de que las herramientas públicas señalen las retractaciones como indicador de calidad, pues estos trabajos "han sido eliminados del registro de la ciencia", tal y como recoge el medio Technology Review.
Además, el problema no es exclusivo de ChatGPT. El MIT Technology Review evaluó en junio herramientas de investigación específicas como Elicit, Ai2 ScholarQA, Perplexity y Consensus. Al indagar sobre 21 artículos retractados, referenciaron entre cinco y dieciocho sin advertencia alguna. Con todo, algunas empresas reaccionan; Christian Salem de Consensus ha integrado datos de retractación, reduciendo a cinco los artículos citados en una prueba de agosto.
Sin embargo, la solución no se limita a bases de datos de retractaciones. Ivan Oransky, de Retraction Watch, señala que un registro exhaustivo sería una labor que exigiría un esfuerzo e inversión de tiempo notable, requiriendo "hacerlo todo a mano". A esto se suma la falta de uniformidad de editores en las notificaciones, con etiquetas como "corrección", "expresión de preocupación" o "erratum", lo que complica la identificación automática.
Por último, la desactualización de los datos que entrenan a la IA agrava la situación: un artículo retractado después del corte de entrenamiento no se reflejará. Expertos como Oransky y Aaron Tay abogan por ofrecer más contexto (revisiones por pares, críticas) y fomentar la prudencia entre usuarios y desarrolladores. "Hay que ser escéptico", concluyen.