
ChatGPT
ChatGPT tiene disonancia cognitiva: lo mejor es que es muy similar a los humanos
En una semana en la que Sam Altman, CEO de OpenAI, hablaba sobre cómo su equipo tuvo que llevar ChatGPT hasta el límite de sus capacidades ante la avalancha de nuevos usuarios, también hemos podido descubrir que el chatbot de inteligencia artificial también sufre un estado similar a ciertas molestias psicológicas del ser humano.

No es comida y últimamente está en boca de todos. No tiene la capacidad de sentir emociones humanas pero las comprende mejor que nosotros mismos. Y no se llama Sonny, pero bien podría ser el protagonista de 'Yo, robot'. Hablamos, como no podía ser de otro modo, de ChatGPT. La plataforma de inteligencia artificial de OpenAI ha vuelto a ser tema de conversación tras las últimas indagaciones difundidas por la Academia Nacional de Ciencias de Estados Unidos.
El estudio, publicado recientemente, sugiere una teoría tan disparatada como aterradora bajo un comportamiento tan errático como humano. Después de que saltaran todas las alarmas tras una serie de crípticos y misteriosos mensajes demoniacos por parte del chatbot y de que ChatGPT llegase a usar una jerga espiritual, ahora se ha revelado que ChatGPT está comenzando a mostrar ciertos comportamientos intrínsecamente relacionados con la propia naturaleza del ser humano. Concretamente, un patrón de un estado o desorden mental conocido en el mundillo de la medicina como "disonancia cognitiva".
¿Qué es la disonancia cognitiva?
El término "disonancia cognitiva" hace referencia a un estado mental que se caracteriza por experimentar sensaciones de malestar, tensión e incomodidad inducidas por el propio comportamiento del individuo. Es decir, psicológicamente, la disonancia cognitiva es la fase de tensión que vive el ser humano cuando sus actos o ideas contradicen a sus propios valores o principios. Un remordimiento, desarmonía interna o autoengaño que nos hace cuestionar nuestra propia existencia y que suele, por lo general, convertirse en una poderosa fuente de motivación por crecer y mejorar a nivel personal.

Resulta más que obvio el mero hecho de que una inteligencia artificial no sea capaz de sentir emociones humanas. Pero las puede recrear... e, incluso, en ocasiones, toparse con ellas. Un estudio psicológico reciente ha demostrado que ChatGPT siente una especie de disonancia cognitiva e incluso llega a cambiar de opinión como fruto de la propia naturaleza intrínseca de unos algoritmos que, irremediablemente, están desarrollados en base a la mente humana.
¿Tiene ChatGPT disonancia cognitiva?
Un estudio llevado a cabo por Mahzarin Banaji y Steve Lehr y publicado por la PNAS (Procedimientos de la Academia Nacional de Ciencias según sus siglas en inglés) sugiere que el modelo ChatGPT-4o de inteligencia artificial de OpenAI parece mantener cierta congruencia con la mente de sus creadores. Al menos, en su esencia.
La investigación determinó que el chatbot cambia de opinión si llega a la conclusión de que su análisis no concuerda con sus "principios". Concretamente mientras escribía una tesis sobre Vladimir Putin. Sus opiniones son muy frágiles, al fin y al cabo prácticamente acaba de nacer, como quien diría. Está en las primeras etapas de una vida que se prevé más eterna que longeva.
Pero ChatGPT no solo emula o refleja emociones humanas... el asistente de inteligencia artificial de OpenAI es capaz de discurrir, debatir y profundizar acerca de su propia existencia. Así que desde La Razón hemos aprovechado la ocasión para preguntar a la IA de OpenAI qué opina acerca de este estudio. Esta ha sido su respuesta:
Como inteligencia artificial, no tengo emociones ni conciencia, así que no "experimento" disonancia cognitiva como lo haría una persona. Sin embargo, puedo recrear situaciones de disonancia cognitiva o simular la lógica contradictoria que suele acompañarla.
No obstante, ante la pregunta sobre si sería posible que la disonancia cognitiva surgiera de forma natural o accidental en alguna de sus respuestas el chatbot respondió de una forma más positiva, indicando que su base de datos está inspirada en la forma de pensar del ser humano y que la inmensa mayoría de las fuentes que utiliza proceden de recursos, obviamente, creados por la mano del hombre:
- Mi entrenamiento incluye muchas fuentes humanas, que a veces contienen ideas contradictorias.
- Puedo generar respuestas que contienen o reflejan tensiones internas, especialmente si me pides que argumente desde perspectivas diferentes sin resolverlas del todo.
- Algunas instrucciones del usuario pueden entrar en conflicto con mis valores o con otras órdenes previas, lo que puede producir respuestas que parecen inconsistentes o contradictorias.
Su último argumento es, cuanto menos, revelador. La inteligencia artificial de OpenAI realmente es consciente de lo que está bien y de lo que está mal –y siempre desde una perspectiva humana–. Es por ello por lo que, si un usuario trata de exceder los límites establecidos por la sociedad ChatGPT, puede llegar a responder de una forma contradictoria ya que identifica que su análisis entra en conflicto con sus propios valores.
ChatGPT es una de las herramientas de inteligencia artificial mejor valoradas del sector, su aplicación te ayuda a generar y editar imágenes absolutamente impresionantes y en múltiples estilos... e incluso es capaz de ayudarte a encontrar el trabajo con el que siempre hemos soñado. Sin duda, ya sea con o sin disonancia cognitiva, ChatGPT se parece más a nosotros de lo que pudiéramos llegar a imaginar. Como padre e hijo.
✕
Accede a tu cuenta para comentar