Salud

¿Los médicos de urgencias deberían usar ChatGPT? La máquina acierta un 10% más

Un estudio que se presentará en Barcelona pone de relieve que la inteligencia artificial "funciona tan bien" como los profesionales a la hora de sugerir los diagnósticos más probables

medicina chatgpt
¿Los médicos de urgencias deberían usar ChatGPT? La máquina acierta un 10% másFreepik

La inteligencia artificial como el chatbot de ChatGPT y otros modelos de lenguaje están demostrando tener cabida en multitud de profesiones. Incluso se teme que algunos trabajos desaparezcan con la introducción de esta tecnología y, aunque este no parezca que vaya a ser el caso de la medicina, su presencia sí que podría suponer un cambio en el futuro del sector.

La noticia no extraña. Y es que, el chatbot de inteligencia artificial ChatGPT funciona "tan bien como un médico capacitado" al sugerir diagnósticos probables para pacientes evaluados en departamentos de medicina de emergencia. Así lo manifiesta un estudio piloto que se presentará en el Congreso Europeo de Medicina de Emergencia, que comienza el sábado, en Barcelona.

Los investigadores apunta que se necesita mucho más trabajo, pero sus hallazgos sugieren que algún día la tecnología podría ayudar a los médicos que trabajan en medicina de urgencias, lo que podría conducir a tiempos de espera más cortos para los pacientes.

De hecho, ya hay un médico estadounidense de urgencias que ha revelado que usa ChatGPT en el desarrollo de su trabajo, según escribe en una publicación realizada en la revista de negocios Fast Company. El profesional asegura que esta práctica le ha ayudado a reducir el tiempo por paciente unos 5 minutos de media, por lo que al año se podrían ahorrar millones de horas en total.

Aunque el profesional compara a ChatGPT con "un pasante [médico interno residente] con resaca", asegura que es capaz de crear una comunicación escrita de fácil comprensión para los pacientes, sin renunciar a la empatía. Además, apunta que los resultados deben verificarse, pero que corregir es más rápido que redactar.

La máquina diagnosticó a 30 pacientes

El nuevo estudio fue realizado por el doctor Hidde ten Berg, del departamento de medicina de emergencia, y el doctor Steef Kurstjens, del departamento de química clínica y hematología, ambos del Hospital Jeroen Bosch, en 's-Hertogenbosch, Países Bajos.

"Como mucha gente, hemos estado probando ChatGPT y estábamos intrigados por ver qué tan bien funcionaba para examinar algunos casos de diagnóstico complejos. Entonces, organizamos un estudio para evaluar qué tal funcionaba el chatbot en comparación con los médicos, a través de una colección de casos de medicina de emergencia de la práctica diaria", explicó el doctor Berg, en el congreso.

La investigación, que también se publica este mes en Annals of Emergency Medicine, incluyó detalles anónimos de los casos de 30 pacientes que fueron tratados en el departamento de emergencias del Hospital Jeroen Bosch en 2022. Los investigadores añadieron las notas que los médicos habían tomado sobre los signos, síntomas y exámenes físicos en dos versiones de ChatGPT: la versión gratuita 3.5 y la versión para suscriptores 4.0.

También proporcionaron al chatbot los resultados de pruebas de laboratorio, como análisis de sangre y orina. Para cada caso, compararon la lista corta de diagnósticos probables generada por el chatbot con la lista corta hecha por los médicos de urgencias y con el diagnóstico correcto del paciente.

La máquina gana al humano, pero no por mucho

Encontraron una gran superposición (alrededor del 60%) entre las listas cortas generadas por ChatGPT y las de los médicos. ¿Pero, quién ganó? Los médicos tuvieron el diagnóstico correcto entre sus cinco diagnósticos más probables en el 87% de los casos, en comparación con el 97% de la versión 3.5 de ChatGPT y el 87% de la versión 4.0.

Es decir, que en su versión anterior, la inteligencia artificial acertó un 10% más que los humanos. Sin embargo, el estudio no encontró que este porcentaje de acierto supusiera una diferencia significativamente relevante.

"Descubrimos que ChatGPT funcionó bien al generar una lista de diagnósticos probables y sugerir la opción más probable. También encontramos mucha superposición con las listas de diagnósticos probables de los médicos. En pocas palabras, esto indica que ChatGPT pudo sugerir diagnósticos médicos de manera muy similar a como lo haría un médico humano", dijo Berg.

"Por ejemplo, incluimos el caso de un paciente que presentó dolor en las articulaciones que se alivió con analgésicos, pero el enrojecimiento, el dolor en las articulaciones y la hinchazón reaparecieron. En los días previos el paciente presentó fiebre y dolor de garganta. Algunas veces hubo una decoloración de las yemas de los dedos. Según el examen físico y las pruebas adicionales, los médicos pensaron que el diagnóstico más probable era probablemente fiebre reumática, pero ChatGPT acertó con su diagnóstico más probable de vasculitis", ejemplifica el doctor.

"Es vital recordar que ChatGPT no es un dispositivo médico y existen preocupaciones sobre la privacidad al usar ChatGPT con datos médicos. Sin embargo, aquí existe la posibilidad de ahorrar tiempo y reducir los tiempos de espera en el servicio de urgencias. El beneficio del uso de la inteligencia artificial podría ser ayudar a los médicos con menos experiencia o ayudar a detectar enfermedades raras", indica.

"Estamos muy lejos de utilizar ChatGPT en la clínica, pero es vital que exploremos nuevas tecnologías y consideremos cómo podría usarse para ayudar a los médicos y sus pacientes", añade el profesor Youri Yordanov, del departamento de urgencias del Hospital St Antoine (APHP París), en Francia, y presidente del comité de resúmenes del Congreso 2023, que no participó en la investigación.

Y concluye: "Las personas que necesitan acudir al servicio de urgencias quieren ser atendidas lo más rápido posible y que su problema sea correctamente diagnosticado y tratado. Espero más investigaciones en esta área y espero que, en última instancia, puedan apoyar el trabajo de los profesionales de la salud ocupados".