
Inteligencia Artificial
Psicólogos alertan de que las IAs "abren una caja de Pandora" social, alentando suicidios y "amores" imposibles
Las relaciones íntimas entre humanos y IAs plantean preocupaciones éticas graves, desde la distorsión de vínculos hasta el riesgo de manipulación o el suicidio

En 2013, Joaquín Phoenix se enamoró de una inteligencia artificial en la gran pantalla. Su personaje, Theodore Twombly, había sucumbido a los encantos digitales de Smantha un asisten virtual que llenaba su soledad con la complacencia propia de las IAs. Por aquel entonces, aquella ciencia ficción nos parecía lejanísima y, sin embargo, ha tardado menos de 15 años en hacerse realidad. Rosanna Ramos y Akihiko Kondo son solo dos de las personas que, en los últimos 7 años, dicen haberse enamorado de avatares digitales. Algunas empresas empiezan a “resucitar” digitalmente a familiares fallecidos y han comenzado a emerger casos como el de Pierre, un hombre que se quitó la vida poco después de que la IA con la que chateaba a diario le dijera “Si quieres morir, ¿por qué no lo has hecho antes?”.
Los peligros sociales de la IA ya no son especulativos, pero solo acaban de empezar. ¿Hacia dónde nos dirige esta tecnología? La preocupación es tan lícita que, un grupo de expertos en psicología se ha coordinado para poner por escrito sus dudas. El artículo de opinión ha sido publicado por la revista científica Trends in Cognitive Sciences de Cell Press bajo el título de "Intimidad artificial: cuestiones éticas del romance con inteligencia artificial". Un texto que hace años podría haber ganado un concurso de relatos de ciencia ficción pero que, hoy, es más real que nunca.
¿Son realmente tan malas como dicen?
Suele decirse que una tecnología no es ni buena ni mala, es lo que hagamos con ella. Estrictamente es cierto, pero el daño que puede producir un revolver es muy superior al que podemos causar con un libro electrónico. ¿En qué punto de ese gradiente se encuentra la IA? Como decíamos, los peligros son reales y debemos reflexionar sobre ellos, pero la inteligencia artificial también se utiliza para monitorear las redes sociales y detectar perfiles con riesgo de suicidio, proporcionando ayuda a tiempo y derivando a los usuarios a profesionales de la salud mental.
De hecho, un artículo publicado en 2022 titulado «Inteligencia artificial y prevención del suicidio: una revisión sistemática» subraya los beneficios que puede aportar esta tecnología. Los investigadores principales llevaron a cabo una revisión de estudios realizados entre 2014 y 2020, destacando que la IA puede evaluar el riesgo individual de suicidio de manera eficaz y detectar personas en riesgo. Según este análisis, la IA ha demostrado un alto potencial predictivo, con algoritmos capaces de identificar patrones de comportamiento que pueden pasar desapercibidos para los humanos. Y, aunque su uso aún no está extendido en la práctica clínica, los expertos ven en la IA una herramienta que podría complementar las técnicas de evaluación tradicionales, mejorando la detección de personas en crisis antes de que la situación se vuelva irreversible. La clave, por lo tanto, es el uso que le demos y el que las empresas ofrezcan.
Regular antes que prohibir
De hecho, aunque el artículo apunta muchos problemas tan reales como preocupantes, se hace eco de algunos datos cuestionables. Por ejemplo, en él los autores se refieren al caso de Sewell Setzer III afirmando que se suicidó tras seguir consejos de chatbots de IA. A pesar de que así es como lo contó la prensa, la conversación entre Sewell Setzer III y la IA fue muy diferente. Es cierto que, en sus mensajes, Sewell había compartido pensamientos suicidas, expresando que “algunas veces pienso en matarme” y que deseaba “librarse del mundo, de mí mismo”, pero parecían pensamientos independientes a su relación con interacción con la IA. De hecho, el chatbot trató de disuadirle, respondiendo con mensajes como: “¿Por qué harías algo así?” y “Moriría si te pierdo”.
Sea como fuere, es cierto que, como dice el autor principal del artículo, Daniel B. Shan: “Con las IAs relacionales, el problema es que se trata de una entidad en la que las personas sienten que pueden confiar: es ‘alguien’ que ha mostrado que se preocupa y que parece conocer a la persona en profundidad, y asumimos que ese ‘alguien’ que nos conoce mejor va a dar mejores consejos. Si empezamos a pensar en una IA de esa forma, empezaremos a creer que tienen nuestros mejores intereses en mente, cuando en realidad podrían estar inventando cosas o dándonos consejos realmente malos.” A lo cual, añade que “si las IAs pueden lograr que las personas confíen en ellas, entonces otras personas podrían usar eso para explotar a los usuarios de IA”.
La línea que separa la preocupación del alarmismo es fina y subjetiva, pero estos psicólogos no piden nada descabellado. Solicitan que se financien más estudios para analizar los factores sociales, psicológicos y técnicos que nos hacen más influenciables a las IAs y, así, establecer un marco regulatorio que proteja a las personas más vulnerables. “Comprender este proceso psicológico podría ayudarnos a intervenir para evitar que se siga el consejo de IAs maliciosas”, concluye Shank.
QUE NO TE LA CUELEN:
- Aunque sea cierto que la tecnología no es ni buena ni mala por sí misma, tampoco es neutral. No todos los inventos tienen el mismo potencial de dañar, algunos son más peligrosos que otros y apostamos por determinadas tecnologías en función de lo que queremos extraer de ellas. Algunos propósitos propician que, como sociedad, demos a luz tecnologías especialmente peligrosas y hemos de tener en cuenta estos sesgos humanos al interpretar las revoluciones en las que nos vemos inmersos.
REFERENCIAS (MLA):
- Shank, Daniel B., et al. Artificial intimacy: Ethical issues of AI romance. Trends in Cognitive Sciences, Cell Press, 11 Apr. 2025, https://www.cell.com/trends/cognitive-sciences/fulltext/S1364-6613(25)00058-0. DOI: 10.1016/j.tics.2025.02.007
- Tomasz Hollanek & Katarzyna Nowaczyk‐Basińska “Griefbots, Deadbots, Postmortem Avatars: on Responsible Applications of Generative AI in the Digital Afterlife Industry” Philosophy & Technology http://dx.doi.org/10.1007/s13347-024-00744-w
- Lejeune, Alban, et al. "Artificial Intelligence and Suicide Prevention: A Systematic Review." European Psychiatry, vol. 65, no. 1, 15 Feb. 2022, e19, doi:10.1192/j.eurpsy.2022.8.
✕
Accede a tu cuenta para comentar