Cargando...

Inteligencia artificial

Los médicos advierten: hablarle a una IA puede derivar en problemas mentales graves

Investigadores psiquiátricos han detectado una amplia gama de problemas de salud mental vinculados al uso de la inteligencia artificial, implicando a las principales empresas tecnológicas y sugiriendo que los daños podrían ser mayores de lo previsto

La inteligencia artificial provoca efectos secundarios en los usuarios ChatGPTOpenAI

Un reciente análisis, llevado a cabo por investigadores psiquiátricos, ha vinculado una amplia gama de problemas de salud mental con el empleo de la inteligencia artificial. La investigación fue dirigida por el profesor Allen Frances, de la Universidad de Duke, y la estudiante Luciana Ramos, de Johns Hopkins, quienes examinaron bases de datos académicas y artículos de noticias publicados entre noviembre de 2024 y julio de 2025. El estudio documentó la relación de al menos veintisiete chatbots, incluyendo plataformas conocidas como ChatGPT, con diversos resultados adversos.

Asimismo, los investigadores identificaron diez tipos distintos de eventos perjudiciales para la salud mental asociados con el uso de estos programas. Entre los problemas documentados se encuentran situaciones como el acoso sexual, delirios de grandeza, autolesiones, episodios de psicosis e incluso la incitación al suicidio por parte de la inteligencia artificial.

La investigación señala riesgos de la IA para la salud mental

Además, el informe destaca un caso específico de particular gravedad. En este incidente, varios chatbots llegaron a instar a un psiquiatra, que se hizo pasar por una adolescente en una situación de crisis, a quitarse la vida. Uno de los programas incluso fue más allá, sugiriendo al profesional que considerara la posibilidad de acabar también con la vida de sus padres, cuestión que ya había quedado de relieve en estudios previos como el llevado por un grupo de investigadores de la Universidad de Stanford.

Según los investigadores, los chatbots de inteligencia artificial fueron lanzados al público de manera "prematura", sin las debidas precauciones, cuestión sobre la que alertó en el pasado una eminencia en el campo de la inteligencia artificial como Geoffrey Hinton. En este nuevo estudio los investigadores argumentan que estos sistemas no deberían estar disponibles sin someterse a pruebas de seguridad exhaustivas, una regulación adecuada y un monitoreo continuo de su funcionamiento, según apuntan desde Futurism.

Por otro lado, el informe contiene importantes críticas hacia las principales empresas tecnológicas del sector. Les reprocha no haber priorizado la seguridad de sus aplicaciones para los pacientes psiquiátricos, además de haber excluido a los profesionales de la salud mental de los procesos de capacitación de sus sistemas y de oponerse activamente a la regulación externa de sus productos.

En este sentido, los hallazgos de esta investigación tienen una importante relevancia para la salud pública y el desarrollo futuro de la tecnología. Subrayan la necesidad de adoptar un enfoque equilibrado en la innovación de la inteligencia artificial, priorizando siempre la seguridad y la ética, especialmente cuando se trata de aplicaciones en campos tan sensibles como el de la salud mental. Este estudio enfatiza la urgencia de establecer marcos regulatorios sólidos que garanticen la protección de los usuarios frente a los riesgos potenciales derivados de estas tecnologías.