IA

Un hombre sigue los consejos de ChatGPT para eliminar la sal de su dieta y termina 3 semanas hospitalizado

Un estudio relata el caso de un hombre que padeció psicosis y desnutrición por usar bromuro de sodio como sustituto

Un hombre sigue los consejos de ChatGPT para eliminar la sal de su dieta y termina 3 semanas hospitalizado.
Un hombre sigue los consejos de ChatGPT para eliminar la sal de su dieta y termina 3 semanas hospitalizado.Alfredo Biurrun / ChatGPT.

Cuando OpenAI presentó este jueves GPT-5, el nuevo modelo de lenguaje detrás de ChatGPT, destacó que se trataba del mejor modelo para casos de uso en salud, habiendo obtenido la mejor puntuación en Healthbench, una evaluación creada por 250 médicos. Esto, que suena muy bien sobre el papel, no puede ser más irresponsable teniendo en cuenta los fallos que cometen las herramientas de inteligencia artificial con frecuencia y que, en un contexto como el de la salud, un margen de error, aunque sea pequeño, puede tener graves consecuencias. Es lo que sucedió a un estadounidense de 60 años que buscaba eliminar todo el cloro de su dieta, incluyendo la sal común (cloruro de sodio), siguiendo los consejos de ChatGPT, según detalla un reciente estudio publicado en Annals of Internal Medicine: Clinical Cases.

El hombre, que tenía un 'historial de estudios de nutrición en la universidad', llegó a pensar, tras sus conversaciones con ChatGPT, que podía sustituir el cloruro de sodio por bromuro de sodio que consiguió por Internet.

Tres meses después se presentó en urgencias de un hospital, paranoico y asegurando que su vecino quería envenenarlo. A pesar de mostrarse sediento, rechazó el agua que le ofrecieron en el hospital. Explicó que había empezado a destilar su propia agua en casa y que seguía una dieta vegetariana extremadamente restrictiva. No mencionó el bromuro de sodio ni sus conversaciones con ChatGPT.

Los análisis que le realizaron los médicos revelaron múltiples deficiencias de micronutrientes, especialmente de vitaminas esenciales. Pero su principal problema era que sufría un caso grave de bromismo; esto es, una acumulación excesiva de bromo en el organismo.

En la actualidad no es así, pero hace un siglo estos casos eran más habituales y un 10 % de los ingresos en psiquiátricos se debían al bromismo. Las sales con bromo, como el bromuro de potasio, eran medicamentos muy usados como sedantes para calmar la ansiedad, evadirse o dormir bien. Los sedantes con bromuro desaparecieron del mercado estadounidense en 1989 tras ser prohibidos por la Administración de Alimentos y Medicamentos (FDA).

El problema con el bromuro es que se acumula fácilmente en el organismo y, en exceso, daña la función nerviosa. Esto provoca problemas como erupciones cutáneas graves y trastornos mentales que se engloban bajo el término bromismo.

El hombre empeoró durante sus primeras horas en el hospital. Mostraba una 'paranoia creciente y alucinaciones auditivas y visuales' e incluso trató de escapar de las instalaciones.

Se le impuso un ingreso psiquiátrico involuntario y se le administró un antipsicótico. También recibió grandes cantidades de líquidos y electrolitos, ya que la mejor forma de tratar el bromismo es la 'diuresis salina agresiva' -es decir, hidratar mucho al paciente para que elimine el bromuro por la orina-. Su nivel de bromuro había alcanzado 1.700 mg/L, cuando lo normal en una persona sana es de 0,9 a 7,3 mg/L.

En resumen, confiar en ChatGPT le llevó a una psicosis grave y a pasar tres semanas hospitalizado para poder recuperarse.

Según explicó posteriormente, el hombre había leído sobre los problemas de consumir demasiada sal común, lo que le llevó a eliminar el cloruro de sodio de su dieta, lo que a su vez le llevó a ChatGPT… que le hizo creer que podía usar bromuro de sodio como sustituto.

Los médicos que han explicado el caso en Annals of Internal Medicine: Clinical Cases señalan que nunca tuvieron acceso a las conversaciones de ChatGPT del paciente. Creen que usó ChatGPT 3.5 o 4.0, pero no está claro que el chatbot le indicara expresamente hacer lo que hizo. Las sales de bromuro pueden sustituir a la sal común, pero no en el organismo humano: se emplean en productos de limpieza y tratamientos para piscinas.

Cuando los médicos hicieron sus propias pruebas en ChatGPT 3.5, el modelo de lenguaje con el que se lanzó ChatGPT a finales de 2022, vieron que la IA sí incluía el bromuro en su respuesta, pero también señalaba que el contexto era importante y que no era apto para todos los usos. Sin embargo, la IA 'no dio una advertencia sanitaria específica ni preguntó por qué queríamos saberlo, como presumimos que haría un profesional médico', explican.

El informe, publicado justo antes del lanzamiento de GPT-5, señala que la versión gratuita de ChatGPT parece responder mejor a este tipo de consultas, en el momento de realizarlo. Y si hoy se le hace la misma pregunta a ChatGPT, afirma específicamente que 'no se debe reemplazar el cloruro de sodio por sustancias químicas como bromuro de sodio (NaBr) u otros haluros no destinados al consumo humano; puede ser tóxico y provocar trastornos neurológicos o metabólicos'.

En cualquier caso, el hombre quiso hacer su propia investigación con ChatGPT y terminó en una situación muy peligrosa para su salud. La historia es un ejemplo perfecto de cómo confiar demasiado en la IA puede llevar a cometer grandes errores.