
Futuro
La IA está cambiando cómo pensamos y estos son sus peligros según la psicología
Kahneman popularizó una clasificación de nuestra forma de pensar en dos sistemas y la IA podría convertirse en el tercero, con sus pros y sus contras
Si te interesa la psicología es muy posible que hayas oído hablar del libro “Pensar rápido, pensar despacio” del psicólogo Daniel Kahneman. Sin duda, se trata de uno de los ensayos más vendidos de todos los tiempos y, en parte, es porque le pone nombre a intuiciones que tenemos sobre cómo funciona nuestra cabeza. Algunas de sus afirmaciones son algo ingenuas, otras directamente poco sólidas, pero si nos quedamos con la base nos ayuda a referirnos a esas dos formas de pensar tan distintas que tenemos los humanos. Lo que Kahneman llama “sistema 1” corresponde al pensamiento intuitivo, rápido y automático. El “sistema 2”, en cambio, es más analítico y reflexivo”. Ahora, un grupo de investigadores proponen sumar un tercer sistema a la clasificación que represente la forma en que nos apoyamos en la IA para resolver problemas.
Según un estudio recientemente publicado en la revista científica Nature Human Behaviour, estamos desarrollando un nuevo sistema de pensamiento, externo a la mente humana, que utiliza las capacidades de la inteligencia artificial para potenciar nuestras habilidades cognitivas. Y es que ya somos muchos los humanos que nos apoyamos en las IAs cada día de nuestra vida. Les pedimos que nos resuman textos, que nos traduzcan un artículo, que moderen el lenguaje de nuestro airado correo a atención al cliente… Pero son menos quienes las utilizan para pensar. De lo que hablan en este artículo es, sobre todo, de la enorme capacidad que tienen las IAs para relacionar conceptos dentro de una nube de datos inabarcable para nuestro cerebro.
Conecta los puntos
Los humanos somos realmente buenos relacionando conceptos, en parte gracias al pensamiento intuitivo. Sin embargo, estamos mucho más limitados de lo que nos gustaría. Más allá de la intuición, lo que nos gustaría es poder tener realmente presente en nuestra cabeza la larga lista de conceptos potencialmente relacionables y ver, poco a poco, si algún par encaja entre sí. Sin embargo, nuestra memoria de trabajo apenas logra mantener cinco conceptos con los que trabajar simultáneamente. Imaginemos que, para vincular dos de esas piezas nos hace falta una tercera o, que para vincular esas tres nos hace falta una cuarta. Hay relaciones que dependen de que otras grandes nubes de datos casen entre sí y ahí es donde entra la IA.
Si hay algo que se les da bien a las inteligencias artificiales es manipular cantidades de información que a nosotros nos sería imposible retener. Y es que, en realidad, actúan de una forma similar a la intuición, apoyadas por la estadística que ya habíamos desarrollado para suplir nuestras limitaciones. Si sabemos utilizarlas, las IAs ya nos proporcionan soluciones originales para problemas que a nosotros nos sería casi imposible resolver o que, de lograrlo, lo habríamos hecho por pura casualidad. De hecho, podríamos decir que esta tecnología tan potente del siglo XIX es una máquina de ideas felices.
Los peligros
Y, aunque las ventajas son evidentes, tal vez no lo sean los peligros. En el artículo, titulado “The case for human-AI interaction as System 0 thinking”, los autores alertan sobre posibles problemas relacionados con el sobreuso de esta tecnología. Sus nombres son Giuseppe Riva y Mario Ubiali y consideran que, “El riesgo es depender demasiado del Sistema 0 sin ejercer el pensamiento crítico. Si aceptamos pasivamente las soluciones ofrecidas por la IA, podríamos perder nuestra capacidad de pensar de manera autónoma y desarrollar ideas innovadoras. En un mundo cada vez más automatizado, es crucial que los humanos continúen cuestionando y desafiando los resultados generados por la IA”.
Problema al cual se suma un segundo, porque cómo podemos estar seguros de la veracidad de los datos que la IA maneja y, por lo tanto, la validez de sus respuestas. “La tendencia creciente de usar datos sintéticos o generados artificialmente podría comprometer nuestra percepción de la realidad e influir negativamente en nuestros procesos de toma de decisiones”. Sin duda, son problemas reales que debemos abordar y, como ellos mismos dicen: “La transparencia, la rendición de cuentas y la alfabetización digital son elementos clave para permitir que las personas interactúen de manera crítica con la IA. Educar al público sobre cómo navegar en este nuevo entorno cognitivo será crucial para evitar los riesgos de una dependencia excesiva de estos sistemas”.
Sin embargo, y por poner una nota discordante al final de este artículo, no deja de ser cierto que dijimos lo mismo sobre otros tantos avances tecnológicos previos. Es verdad que la IA llega a una velocidad sin precedentes y eso dificulta una adopción meditada de la tecnología, pero podríamos sostener que la sociedad tiende a adaptarse a estas ventajas y, aunque a veces pierde ciertas habilidades con ello, desarrolla otras igual de funcionales para el mundo que construye con ellas.
QUE NO TE LA CUELEN:
- En realidad, la clasificación de Kahneman no es la única y su elección para bautizar a esta nueva dinámica de usar las IAs para amplificar nuestra capacidad de resolver problemas es algo arbitraria. De hecho, podríamos clasificar el funcionamiento de una IA como algo similar al sistema 1 y, simplemente, considerarlo un caso secundario de este. Por otro lado, si recurrir a una ayuda es suficiente como para considerar esa dinámica un sistema de pensamiento propio sería interesante tener en cuenta cómo funcionan las consultas a expertos, los consejos de una madre o las conversaciones de confesionario, todas ellas presentes cuando Kahneman escribió su libro.
REFERENCIAS (MLA):
- The Case for Human-AI Interaction as System 0 Thinking." Nature Human Behaviour, 22 Oct. 2024. News article.
✕
Accede a tu cuenta para comentar