
Opinión
La IA nos empuja a una sociedad de pensamiento único donde todos nos expresaremos igual
Expertos de la Universidad del Sur de California alertan de los peligros que supone la IA para la expresión y el pensamiento humano y, algunos, no son tan evidentes

“Gracias por el artículo, da gusto leer algo escrito por un humano”. Hace unos días recibí ese cumplido de una lectora y me hizo sentir bien. Pero el disfrute es efímero y pronto caí en la cuenta de que, lo que yo percibía como un halago, no hace tanto sería considerado un insulto. Lo más destacable de mis textos ya no es la claridad o la retórica, sino esa extraña propiedad que antes dábamos por hecha: tener un origen humano. No es un secreto que la mayor parte de articulistas empleamos la IA a diario. La diferencia es que algunos la utilizan para que escriba por ellos y otros le damos usos aparentemente menos conflictivos: resúmenes, detección de errores, etc.
Pues bien, científicos de la Universidad del Sur de California acaban de publicar un inquietante artículo de opinión. En él, vaticinan que, si no ponemos remedio, incluso los artículos más humanos empezarán a sonar como si hubieran sido escritos por la inteligencia artificial. Según ellos, nos encaminamos a una época de gran homogeneización del pensamiento y de las expresiones, no solo en los periódicos y el mundo editorial, sino en nuestro día a día, en nuestros mensajes personales y nuestras conversaciones de ascensor. Un futuro distópico en el que, tal vez, acabemos diciendo cosas como “da gusto hablar con alguien que se expresa como un humano”.
El pensamiento único
"Los individuos difieren en cómo escriben, razonan y ven el mundo", dice la doctora Zhivar Sourati, primera autora del artículo. "Cuando estas diferencias son mediadas por los mismos grandes modelos de lenguaje (LLM), su distintivo estilo lingüístico, perspectiva y estrategias de razonamiento se homogeneizan, produciendo expresiones y pensamientos estandarizados entre los usuarios". Como sociedad, usamos Chat GPT para escribir ese correo que no sabemos cómo empezar o para terminar una redacción cuando nos va a pillar el toro. Actividades que podríamos considerar trámites y donde la falta de “humanidad” no supone una gran diferencia. ¿Pero qué dice sobre nosotros como sociedad que cada vez se utilice más la IA para escribir mensajes por Tinder o responder a amigos en Whatsapp? Ya no hablamos de trámites, sino de interacciones que, en teoría, mantenemos porque buscamos en ellas el factor humano.
"Debido a que los LLM están entrenados para capturar y reproducir regularidades estadísticas en sus datos de entrenamiento, que a menudo sobrerrepresentan idiomas e ideologías dominantes, sus salidas reflejan frecuentemente una porción estrecha y sesgada de la experiencia humana", añade Sourati. A medida que se propaga el uso de la IA, encontramos más contenido creado con sus sesgos, que no son solo lingüísticos, sino ideológicos y culturales. "La preocupación no es solo que los LLM moldeen cómo la gente escribe o habla, sino que redefinan sutilmente lo que cuenta como discurso creíble, perspectiva correcta o incluso buen razonamiento", reflexiona Sourati. Ese contenido (y sus sesgos) competirá por nuestra atención frente a otros textos que pueden estar peor escrito y ser menos eficiente, pero que serán verdaderamente plurales.
La pandemia de la homogeneidad
Y aquí viene el problema menos evidente porque, incluso si nos resistimos a utilizar la IA, es inevitable consumir el contenido que produce. Construimos nuestra forma de pensar y de expresarnos por imitación. ¿Qué pasará cuando el contenido creado por IA desborde las redes? ¿Qué sucederá con los jóvenes que crezcan en un mundo donde la pluralidad más humana no sea fácil de encontrar? Beberán de la IA y, lo quieran o no, verán condicionado su pensamiento y su expresión, puede que homogeneizándose un poco más generación tras generación. "Incluso si las personas no son usuarias directas de los LLM, los LLM aún las afectarán indirectamente", añade Sourati. "Si mucha gente a mi alrededor piensa y habla de cierta manera, y yo hago las cosas de forma diferente, sentiría presión para alinearme con ellos, porque parecería una forma más creíble o socialmente aceptable de expresar mis ideas".
¿Qué podemos hacer, entonces? A título individual, escribir como humanos puede valernos algunos cumplidos (muy bienvenidos), pero no nos garantiza que la pluralidad sobreviva si la mayoría de los usuarios siguen delegando la escritura en las máquinas. El futuro no está perdido, pero si existe una solución, esta pasará por regular el diseño y el uso de estas tecnologías. "Si los LLM tuvieran formas más diversas de abordar ideas y problemas, apoyarían mejor la inteligencia colectiva y la capacidad de resolución de problemas de nuestras sociedades", concluye Sourati. "Necesitamos diversificar los propios modelos de IA mientras ajustamos también cómo interactuamos con ellos, especialmente dado su uso generalizado en tareas y contextos, para proteger la diversidad cognitiva y el potencial de ideación de las generaciones futuras”.
QUE NO TE LA CUELEN:
- La inteligencia artificial no es esencialmente negativa. Ni siquiera los grandes modelos de lenguaje son necesariamente perjudiciales. Su impacto en nuestra sociedad dependerá de los usos que le demos y, esos usos, pueden regularse. El desarrollo tecnológico siempre ha requerido equilibrar beneficios y riesgos que son más extremos cuanto más poderoso sea el “invento”. En este caso, la velocidad a la que avanza la IA plantea un reto especialmente complejo, pero no imposible y esa es la dirección en la que debemos seguir explorando.
REFERENCIAS (MLA):
- Sourati, Zhivar, et al. "The Homogenizing Effect of Large Language Models on Human Expression and Thought." Trends in Cognitive Sciences, vol. 30, no. 3, 11 Mar. 2026, doi:10.1016/j.tics.2026.01.003.
✕
Accede a tu cuenta para comentar


