Inteligencia Artificial

‘Persuasión Superhumana’: la última barrera de la IA que puede convulsionar los negocios online

La posibilidad de que una inteligencia artificial manipule a un humano está cada vez más cerca.

Escena de la película 'Her'
Escena de la película 'Her'larazón

Es probable que la humanidad esté todavía muy lejos de construir la denominada inteligencia artificial general (AGI), o una IA que iguale la función cognitiva de los humanos, si es que alguna vez podemos lograrlo, pero lo que está claro es que cada vez contamos con inteligencias artificial que imitan más algunos patrones humanos. ¿Qué implicaciones puede tener esto?

Sin ir más lejos, el CEO de OpenAI, Sam Altman, advierte que la IA no tiene que ser tan inteligente como una AGI para influenciar o manipular mentes humanas.

"Espero que la IA sea capaz de una persuasión sobrehumana mucho antes de que nos supere en inteligencia general", tuiteó Altman el martes, señalando que esto “podría dar lugar a resultados muy extraños".

Aunque Altman no detalló cuáles podrían ser esos resultados, no es una predicción descabellada. Los chatbots de IA orientados al usuario, como el ChatGPT de OpenAI, están diseñados para ser buenos conversadores y se han vuelto sorprendentemente capaces de sonar convincentes, incluso si están completamente equivocados en algo.

Al mismo tiempo, también es cierto que los humanos ya están empezando a establecer conexiones emocionales con varios chatbots, lo que los hace sonar mucho más convincentes.

De hecho, los bots de IA ya han dado muestra de esto. Hace unos meses, un joven de 19 años influenciado tras mantener varias conversaciones con un chatbot trazó un plan para intentar asesinar a la difunta Isabel de Inglaterra. Menos al menos al chico no estaba muy puesto en las noticias y no tuvo nadie con quien llevar a cabo su plan.

Pero, ¿y esto como puede afectar a los negocios?

Una IA superpersuasiva en los negocios digitales: ¿Herramienta perfecta o agujero ético?

A lo que Altman se refiere es que una IA sea capaz de manipular a un humano desde la persuasión, conveciéndolo de algo, que puede ser desde el caso que hemos visto tan dramático a comprar un producto. ¿Pero sería esto ético?

Por un lado, su uso puede ser beneficioso al mejorar la experiencia del usuario y aumentar las conversiones. Una IA persuasiva puede analizar los datos de los usuarios, como sus preferencias y comportamientos de compra, para personalizar las recomendaciones y ofertas. Esto puede generar una mayor satisfacción del cliente y fidelidad a la marca.

Además, una IA persuasiva puede ayudar a los negocios online a optimizar sus estrategias de marketing y ventas. Puede utilizar técnicas de persuasión, como la escasez o la prueba social, para influir en la toma de decisiones de los usuarios y aumentar las ventas. También puede ofrecer asistencia virtual en tiempo real, proporcionando respuestas rápidas y precisas a las preguntas de los clientes, lo que mejora la atención al cliente y la satisfacción.

Sin embargo, una IA muy persuasiva también puede tener consecuencias negativas. Puede cruzar la línea de la privacidad y la ética al recopilar y utilizar datos personales sin el consentimiento adecuado. Esto puede generar desconfianza por parte de los usuarios y dañar la reputación de la empresa.

Además, una IA persuasiva podría manipular a los usuarios para que realicen compras impulsivas o innecesarias, lo que puede llevar a la insatisfacción del cliente a largo plazo. También puede generar una dependencia excesiva de la tecnología, lo que puede dificultar el desarrollo de habilidades de toma de decisiones y autonomía por parte de los usuarios.

La gran pregunta aquí es la de siempre: ¿Cómo se reconocería un uso así de la tecnología y cómo se debería regular?

La regulación, siempre por detrás

Los humanos descontentos han acudido a los rincones más oscuros de Internet en busca de comunidad y validación durante décadas, y no es difícil imaginar un escenario en el que un actor malintencionado podría dirigirse a una de estas personas más vulnerables a través de un chatbot de IA y persuadirla para hacer cosas malas.

Y aunque los individuos descontentos serían un objetivo obvio, también vale la pena señalar cuán susceptibles son los usuarios promedio de Internet a estafas digitales y desinformación.

Pero no se trata solo de casos evidentes de abuso de la IA de los que debemos preocuparnos. La tecnología está profundamente integrada en la vida diaria de la mayoría de las personas, y aunque no haya una conexión emocional o romántica entre un humano y un bot (como se veía en la película Her), ya depositamos mucha confianza en ella.

Esto posiblemente nos predispone a depositar esa misma fe en los sistemas de IA, lo que podría convertir una alucinación de IA en un problema potencialmente mucho más serio si un humano la cree a pies juntillas.

Quién sabe cuándo se cumplirá de verdad el vaticinio de Altman, pero robablemente sea mejor preocuparnos menos por las IA en sí y centrarnos más en quienes intentan abusar de ellas.