
Psicología
Experta alerta sobre el peligro de los robots que lloriquean y se muestra indefensos
La investigadora Marieke Wieringa advierte sobre la posible manipulación a través de robots “sensibles”

Cuando imaginamos el futuro de la robótica pensamos en androides perfectos, minimalistas y carentes de emociones. A eso nos tiene acostumbrados la ciencia ficción, pero… ¿y si la industria tiene otros planes? La investigadora Marieke Wieringa, de la Universidad de Radboud ha adelantado algunos resultados de la tesis doctoral que presentará el 5 de noviembre. Durante los últimos años, su equipo ha estado investigando cuánta empatía nos puede despertar un robot y, sobre todo, hasta qué punto condiciona cómo los tratamos. La conclusión de Wieringa, a falta de publicar los estudios, es que los robots que se muestran más “sensibles” pueden llegar a manipularnos emocionalmente.
Pensemos por un momento en esas pegatinas de ojos donde la pupila se mueve dando una sensación alocada. Al pegarlos sobre cualquier objeto, esos ojos despiertan algo en nosotros, convierten una lavadora, una zanahoria o incluso una piedra, en un personaje. Somos máquinas de empatizar y no nos tienen que dar mucho para que conectemos con objetos inanimados. La industria lo sabe y por eso triunfaron los Tamagotchis en su momento. De hecho, nos gustan los asistentes del hogar que se muestran humanos, como Alexa, Cortana o Siri. Así que... ¿y si el futuro de la robótica estuviera en crear robots patéticos? Androides que se muestren tan vulnerables como para despertar en nosotros un instinto protector. ¿Qué estarías dispuesto a hacer y comprar para asegurar su bienestar?
¿Trabajar o dar una paliza?
La investigación de Wieringa no ha sido la primera de su clase, pero refuerza lo que ya sabíamos. A poco que un robot se muestre humano y vulnerable, nosotros empatizamos con él. Concretamente, sus investigaciones consistieron en exponer a los participantes a situaciones en las que debían interactuar con robots en diferentes contextos emocionales. Algunos participantes vieron videos donde los robots eran tratados bien o mal, mientras que en otros casos se les pidió que sacudieran directamente a los robots. Los robots, a su vez, reaccionaban de distintas maneras: a veces permanecían en silencio, y en otras emitían sonidos lastimeros o mostraban "reacciones de dolor."
Los resultados mostraron que cuando los robots manifestaban signos de "sufrimiento" o angustia, los participantes sentían más lástima y eran menos propensos a sacudirlos nuevamente. Signos que fueron tan sencillos como un sonido lastimero de altavoces metálicos, ojos virtuales tristes o brazos robóticos temblorosos. Dicho de otro modo: robots patéticos en su primera acepción de la RAE: que conmueve profundamente o causa gran dolor o tristeza. Sin embargo, si el robot no mostraba emociones, los participantes no dudaban en sacudirlo. En una variación de la prueba, los participantes podían elegir entre realizar una tarea aburrida o sacudir al robot, y la mayoría prefirió evitar sacudir al robot que emitía sonidos lastimeros, eligiendo en su lugar hacer la tarea aburrida.
El chantaje emocional
“La gente estuvo obsesionada con los Tamagotchis por un tiempo… ¿y si una empresa creara un nuevo Tamagotchi al que tuvieras que pagar para alimentar como a una mascota?” declaró Wieringa, y esa es la cuestión. Sabemos que los robots más “sensibles” son especialmente interesantes como acompañantes para personas de la tercera edad o con algún problema de salud mental. Sin embargo, también son grupos especialmente vulnerables a una posible manipulación emocional por parte de estos androides.
“Debemos proteger a las personas sensibles a las emociones ‘falsas’... Somos seres que también nos dejamos llevar por nuestras emociones” dice Wieringa. No es descabellado pensar que una empresa pueda aprovecharse de ello porque, en la medida de lo posible, muchas ya lo han hecho aplicando las herramientas psicológicas que estaban a su disposición para diseñar productos más atractivos, dificultar que nos diéramos de baja y vendernos arena en el desierto.
Wieringa sentencia que "solo es cuestión de tiempo hasta que las empresas encuentren un modelo de negocio para la manipulación emocional mediante robots”. Lo que nos protege es la ley e instituciones como la Oficina de Atención al Consumidor y, si queremos poder beneficiarnos de los pros de este tipo de tecnología debemos protegernos de sus contras. El primer paso es explorar los peligros y, gracias a estudios como este, los tenemos un poco más claros.
QUE NO TE LA CUELEN:
- No es necesariamente malo que empaticemos con objetos inanimados. El peligro está en que la industria lo aproveche en su beneficio. Del mismo modo que el uso de mascotas infantiles para anunciar cereales es cuestionable y ya no lo toleraríamos en el caso del tabaco o el alcohol, debemos plantearnos cómo queremos relacionarnos con los robots.
REFERENCIAS (MLA):
- Bartneck, Christoph et al. “The influence of robot anthropomorphism on the feelings of embarrassment when interacting with robots.” Paladyn 1 (2010): 109-115. https://www.semanticscholar.org/paper/The-influence-of-robot-anthropomorphism-on-the-of-Bartneck-Bleeker/1ca64edfe662c7a77d312944da2af4360dff1cc4
- Darling, Kate. “'Who’s Johnny?’ Anthropomorphic Framing in Human-Robot Interaction, Integration, and Policy.” Robot Ethics 2.0: From Autonomous Cars to Artificial Intelligence, edited by Patrick Lin, Ryan Jenkins, and Keith Abney, Oxford University Press, 2016, pp. 173-190.
- (Nota de prensa) Marieke Wieringa. “Can You Feel Sorry for a Robot?” Radboud University Nijmegen.29 Oct. 2024.
✕
Accede a tu cuenta para comentar

Declaración de la Renta
Arranca la campaña de la Renta 2025: guía completa y todo lo que necesitas saber

Guerra comercial