Cargando...

Inteligencia Artificial

Nadie se libra de las alucinaciones de la IA: descubren un informe de la Casa Blanca repleto de citas a estudios inexistentes

Un reciente informe sobre salud infantil de una comisión presidencial de EE. UU. ha incluido referencias a estudios científicos inexistentes. Expertos señalan que estos errores son característicos del uso de inteligencia artificial generativa

Fotografía de La Casa Blanca Unsplash

La inteligencia artificial es una herramienta poderosa, pero como ya sabemos, tiene un talón de Aquiles: las alucinaciones. Esa tendencia a inventar datos o información de la nada, haciéndola pasar por real, es uno de los grandes inconvenientes que tienen este tipo de servicios a día de hoy.

Y lo preocupante es que este problema ya no es exclusivo de los chatbots que usa la gente de a pie, como Gemini, ChatGPT o Perplexity. No. Ha llegado incluso a informes oficiales de alto nivel. reciente investigación ha revelado que un informe sobre la salud infantil, elaborado por una comisión presidencial en Estados Unidos, incluía citas a estudios científicos que, simplemente, no existen.

Cuando la ficción se cuela en informes oficiales del gobierno

El informe en cuestión, presentado como una "base clara y basada en evidencias" para la acción en diversos temas de salud infantil, sorprendió a la comunidad científica por la presencia de estas referencias ficticias.

Entre ellas, se encontraron estudios inexistentes sobre publicidad de medicamentos dirigida al consumidor, enfermedades mentales y fármacos recetados a niños con asma. Una de las profesoras de epidemiología mencionada como autora de uno de esos supuestos estudios confirmó que nunca había escrito tal artículo y que este no parecía existir en absoluto. Esto, lógicamente, levantó serias preocupaciones sobre la rigurosidad del documento.

La presencia de estas citas falsas fue inicialmente reportada por un medio de comunicación, y posteriormente, se identificaron más referencias erróneas. Ante el revuelo, la Casa Blanca subió rápidamente una nueva versión corregida del informe.

Lo más llamativo de este incidente es que, según un experto en periodismo médico y cofundador de una web que rastrea las retracciones de investigaciones científicas, estos errores son "característicos del uso de inteligencia artificial generativa". Es un problema que ya se ha visto en otros contextos, como en documentos legales.

Aunque el experto no pudo confirmar si el gobierno había utilizado IA específicamente en la elaboración de este informe o sus citas, sí enfatizó que este tipo de "fantasías" son, lamentablemente, "mucho más comunes en la literatura científica de lo que a la gente le gustaría".

De hecho, no es la primera vez que tenemos que hablar de un incidente como este: no mucho tiempo atrás, contábamos cómo la IA estaba provocando que decenas de estudios científicos incluyesen frases que no significaban absolutamente nada. Lo que está claro, es que una vez más se demuestra la necesidad de verificar la información, incluso la procedente de fuentes aparentemente fiables, en una era donde la IA puede generar contenido con una facilidad asombrosa, pero no siempre con la precisión que se espera.