Inteligencia Artificial

Una psicóloga analiza la tecnología de OpenAI. Este es el diagnóstico

“Hacemos un simulacro humano y luego nos enfadamos cuando vemos que refleja algunas de nuestras peores características”.

Un hombre interacciona con un robot que utiliza inteligencia artificial
Un hombre interacciona con un robot que utiliza inteligencia artificiallarazon

El uso de ChatGPTA es cada vez más controvertido en decenas de aspectos. Aunque en algunos sentidos sorprende positivamente en otros da la nota. Y hasta miedo. Y a medida que esto ocurre la pregunta es más frecuente: ¿está bien ChatGPT? Y para responder a eso una psicóloga la ha analizado…tanto como se puede hacer con una IA que aprende de nosotros, los humanos.

Desde su lanzamiento, algunas personas en línea han comenzado a referirse a la IA de Bing como "ChatBPD", una referencia a que funciona con la tecnología de OpenAI y al trastorno límite de la personalidad (BPD o Border Personality Disorder en inglés), un trastorno caracterizado por la dificultad para regular las emociones.

La psicoterapeuta Martha Crawford, de la Universidad de Nueva York, analizó las comunicaciones con Bing AI. De acuerdo con ella “esto es un espejo y creo que principalmente lo que no nos gusta ver es cuán paradójicos, desordenados, sin límites, amenazantes y extraños son nuestros propios métodos de comunicación".

La realidad es que una IA, cualquiera, es tan buena como los datos con los que se entrena, que a menudo se extraen de Internet, donde los humanos a menudo dejamos mucho que desear sobre nuestras normas de conducta. Así, no es extraño que el comportamiento de una IA a menudo refleje esto. Si bien Crawford se negó a "diagnosticar" esta IA, sí confirma que si está siendo entrenada en datos de redes sociales, como lo fue el último chatbot de Microsoft, es probable que esté imitando esta forma de comunicación.

Para esta experta, el aspecto más interesante de la historia del chatbot de IA tiene menos que ver con la tecnología en sí y más con las formas en que elegimos interactuar con ellas.

“Existe un largo historia de arquetipos que relatan el miedo a cualquier tipo de simulacro humano que parezca tener alma o espíritu – concluye Crawford –. Esto se remonta a Pigmalión, el escultor cuya obra cobra vida, o a Frankenstein. Hacemos un simulacro humano y luego nos enfadamos cuando vemos que en realidad refleja algunos de nuestros peores comportamientos. Dicho todo esto no creo que los chatbots de IA estén haciendo un gran trabajo al imitar el habla humana, pero que lo estén haciendo lo suficientemente bien como para asustarnos. Solo el hecho de que estemos dialogando con automáticamente con ellos ya es extraño”.