ChatGPT

Jamás confíes en la IA para un diagnóstico médico: ChatGPT le dijo que no era grave, pero realmente tenía un cáncer en fase 4

Si bien la inteligencia artificial le proporcionó un diagnóstico tranquilizador, la realidad era mucho peor

La IA no está capacitada para sustituir a los sanitarios
La IA no está capacitada para sustituir a los sanitariosPixabay

Warren Tierney, un irlandés de 37 años, comenzó con lo que parecía una simple irritación de garganta. Consultó a ChatGPT buscando una explicación tranquilizadora y el chatbot le aseguró que era “muy poco probable” que se tratara de algo grave. Sin embargo, unos meses después, un diagnóstico médico reveló la realidad: cáncer de esófago en estadio 4, una fase avanzada y difícil de tratar.

El caso, ocurrido en Killarney (Irlanda), ha reavivado el debate sobre el papel de la inteligencia artificial en la salud. Aunque herramientas como ChatGPT ofrecen respuestas inmediatas y pueden ayudar a comprender síntomas leves, los expertos recuerdan que no son sustitutos de un profesional sanitario, especialmente ante señales persistentes o inusuales.

Las consecuencias de remplazar la atención médica por la IA

Según reveló el británico The Daily Mail, todo comenzó cuando Tierney notó molestias al tragar y una sensación de ardor que no desaparecía. En lugar de acudir al médico, decidió probar con ChatGPT, que le dio una respuesta tranquilizadora: no había “señales rojas” y, en cierto momento, su mejoría supuso “una señal alentadora”. Animado por esas palabras, pospuso la cita médica y continuó revisando sus síntomas con la IA, convencido de que se trataba de una inflamación pasajera.

Con el tiempo, los síntomas empeoraron. La dificultad para tragar líquidos se hizo más intensa y empezó a perder peso. Fue entonces cuando decidió acudir a urgencias. Las pruebas médicas revelaron un diagnóstico devastador: un adenocarcinoma de esófago en fase 4, con metástasis. El tratamiento comenzó de inmediato, pero el propio paciente reconoció después que su confianza en la IA probablemente le hizo perder meses cruciales para la detección temprana.

Este caso expone una tendencia creciente: muchas personas recurren a la inteligencia artificial para obtener información médica sin pasar por consulta. La comodidad, la rapidez y la ausencia de espera pueden resultar atractivas, pero también peligrosas si la información se interpreta como un diagnóstico definitivo. ChatGPT, como la mayoría de chatbots, incluye advertencias sobre sus limitaciones: no sustituye a un médico y sus respuestas no deben tomarse como consejo clínico.

Los especialistas en salud recuerdan que la inteligencia artificial puede servir de apoyo ofreciendo información general sobre enfermedades e incluso en el hallazgo de nuevos tratamientos. Sin embargo, no puede evaluar síntomas en contexto, realizar exploraciones físicas o interpretar señales subjetivas como un profesional humano.

El caso de Tierney ha generado debate en Irlanda y fuera de ella sobre la necesidad de mayor regulación en el uso de IA médica. Algunos expertos piden que las plataformas incluyan avisos más visibles, limiten respuestas sobre diagnósticos o redirijan al usuario a un profesional cuando se detecten síntomas potencialmente graves.