Tecnología

Videollamadas con tus difuntos, el último peligro de la IA según expertos de la Universidad de Cambridge

Los deadbots ya son una realidad, amenazan con cambiar todos nuestros esquemas sobre el duelo y puede que sea para peor

Una visualización de una empresa ficticia llamada MaNana, uno de los escenarios de diseño utilizados en el artículo para ilustrar los posibles problemas éticos en la emergente industria de la vida digital después de la muerte.
Una visualización de una empresa ficticia llamada MaNana, uno de los escenarios de diseño utilizados en el artículo para ilustrar los posibles problemas éticos en la emergente industria de la vida digital después de la muerte. Dr Tomasz HollanekEurekalert

La IA ya está cumpliendo muchos de nuestros sueños, pero también se está convirtiendo en la protagonista de algunas de nuestras pesadillas . La ciencia ficción nos lo ha estado advirtiendo, pero hay cosas que parecen demasiado espeluznantes para ser reales. Muchos lo calificaron como el episodio más inquietante de la segunda temporada de Black Mirror y, ahora, ya es posible. La IA ya puede “resucitar” a los muertos, y un artículo publicado en la revista Philosophy & Technology alerta acerca de sus peligros.

En aquel primer episodio de la segunda temporada conocemos brevemente a Ash que, encarnado por Domhnall Gleeson, muere inesperadamente en un accidente de coche, y su novia, Martha (Hayley Atwell) decide enfrentarse a la pérdida con el poder de la tecnología. Así es como acaba contratando los servicios de una empresa de inteligencia artificial, y les permite entrenar una IA usando las conversaciones que Ash había mantenido en redes sociales. Ash ha vuelto a la vida, primero como un chat, luego como voz y, finalmente, de manera física. Pues bien… se llaman deadbots y ya son una realidad.

Deadbots

Las inteligencias artificiales son muy buenas detectando patrones y, por lo tanto, podemos usarlas para que escriban poesía con el estilo de Quevedo o cuentos con la prosa de Mary Shelley. Y, por supuesto, si pueden imitar a esos genios con solo un puñado de libros, imagina lo bien que podrían imitarte a ti si tuvieran las montañas de palabras que has tecleado durante toda tu vida. De hecho, esta idea está detrás de algunas de las estafas digitales más sofisticadas del momento, donde, con una inteligencia artificial, los timadores pueden clonar tu voz. Es escalofriante, pero hay algo peor. Porque si pueden hacerlo contigo, pueden hacerlo con tus seres queridos.

Ese es el modelo de negocio que hay tras empresas que ofrecen este tipo de servicios. Con suficiente texto del “donante”, pueden clonar su manera de escribir. Dicho de otro modo: pueden hacer que hables con tus muertos. En el artículo de Philosophy & Technology, los autores plantean una serie de problemas a través de tres escenarios diferentes, el de una persona mayor que quiere dejarle un chatbot durante 20 años a sus familiares, el de una madre en situación terminal crea un deadbot de sí misma para ayudar a su hijo con el duelo y el de un nieto que encarga una imitación por IA de su abuela para no perderla.

Cuidado con lo que deseas

En los tres escenarios, a medida que los usuarios interactúan con el “deadbot”, van cambiando su percepción. Lo que comienza como un alivio ante la pérdida se convierte pronto en culpa, confusión y malestar y nos sugiere preguntas inquietantes. ¿Podrá comprender el niño que su madre ha muerto o parte de él mantendrá cierta esperanza en volver a tocarla? ¿Vivirá en la decepción constante de que no se produzca ese reencuentro?

¿Qué ocurrirá cuando la suscripción gratuita de prueba caduque y el deadbot que han encargado de su abuela empiece a ser invadido por anuncios? ¿Podremos simplemente eliminar al bot con la frialdad con la que eliminamos una cuenta de Instagram? ¿O necesitaremos quizás una suerte de ritual digital que nos ayude a explicitar nuestro respeto? ¿Y si nuestros herederos no quieren el deadbot que nos hemos hecho pero la suscripción dura 20 años? ¿Dónde terminan mis derechos a hacerme uno y dónde empiezan sus derechos a no alargar el duelo? Porque claro, no tienen por qué interactuar con el bot, pero tampoco es fácil evitar la culpa si sabes que existe un avatar de tu ser querido que lo imita a la perfección y que no interactúas con él.

Una tecnología peligrosa

La IA nos ha puesto un poder inimaginable en las manos. Ha desbloqueado todo un horizonte de posibilidades que ni siquiera hemos empezado a explorar, y es imposible que la ética y la legislación se anticipen a todas ellas. El artículo propone, no obstante, que la solución a estos problemas pasa por legislar acerca de este tipo de productos fundamentándose en un análisis ético de la situación. Sugieren, por ejemplo, que no se pueda hacer un deadbot sin el consentimiento expreso del difunto (el donador) y que, del mismo modo, también se deba tener en cuenta la opinión de sus seres cercanos o, quizás, de las personas que podrán interactuar con el deadbot en un futuro.

El artículo no propone soluciones para todos los problemas posibles, pero pone sobre la mesa una de las crisis éticas más importantes que viviremos como sociedad. La disociación de la muerte biológica y la muerte digital. Porque el mercado ya ofrece crear chats con tus difuntos y es cuestión de tiempo que hagan lo propio mediante llamadas de voz o, directamente videollamadas, porque es una tecnología que ya tenemos. Una vez más, la humanidad acaba de cruzar, sin enterarse, uno de esos umbrales que la cambiarán para siempre, queramos o no.

QUE NO TE LA CUELEN:

  • Las inteligencias artificiales ni piensan ni tienen sentimientos, pero hemos de tener en cuenta lo fácilmente que proyectamos cognición en otros seres. Empatizamos con pequeños robots carentes de ojos… ¿cómo no vamos a establecer vínculos con un deadbot? Ese es uno de los peligros, el nuevo tipo de relaciones que se establecerán y cómo acabarán afectando a nuestra salud mental. ¿Estamos emocionalmente preparados para valernos de esta tecnología? ¿Debería considerarse un tratamiento bajo indicación de profesionales de la salud mental? ¿Debemos familiarizarnos con ellos?

REFERENCIAS (MLA):

  • Tomasz Hollanek & Katarzyna NowaczykBasińska “Griefbots, Deadbots, Postmortem Avatars: on Responsible Applications of Generative AI in the Digital Afterlife Industry” Philosophy & Technology [[LINK:EXTERNO|||http://dx.doi.org/10.1007/s13347-024-00744-w" target="_blank">]]