
Actualidad
Meta se sumará a X dando alas a los bulos y así puede afectarnos psicológicamente
Mark Zuckerberg ha comunicado que Meta eliminará los filtros de verificación y no parece la mejor opción según la psicología

Las redes sociales no se tambalearán por los recientes cambios en la moderación de contenido, pero el impacto sobre cómo nos informamos podría ser profundo. Tanto Meta como X (anteriormente Twitter) han dado pasos hacia un modelo que prioriza la "libertad de expresión" sobre la moderación directa, un giro que, si bien resulta atractivo en el papel, podría desdibujar los límites entre el "debate democrático" y el caos informativo. Las preguntas son inevitables: ¿a quién beneficia realmente esta decisión? ¿Es un avance en términos de "democracia" o un paso atrás en la lucha contra la desinformación?
El problema con Meta
Meta, con sus casi 3.000 millones de usuarios en Facebook, Instagram y Threads, ha decidido cerrar su programa de verificación de datos. Este sistema, implementado en 2016 tras el estallido de la polémica sobre las "fake news" en las elecciones estadounidenses, será reemplazado por las "Notas de la Comunidad". Este modelo, inspirado en la plataforma X, permite a los propios usuarios evaluar y comentar el contenido.
La idea suena "democrática", pero tropieza con una realidad psicológica compleja: el efecto rebote. Este fenómeno, ampliamente debatido en psicología, sugiere que cuando una creencia errónea es refutada, las personas que la sostienen tienden a aferrarse aún más a ella. Aunque algunos estudios recientes cuestionan la universalidad de este efecto, tampoco hay evidencia sólida de que desmentir bulos públicamente logre resultados positivos.
Aquí es donde entra en juego la Ley de Brandolini, que afirma que "la cantidad de energía necesaria para refutar un bulo es un orden de magnitud mayor que la necesaria para producirlo". Las "Notas de la Comunidad" podrían agravar este problema. En un entorno con millones de usuarios —y un número indeterminado de bots— participando en la conversación, los bulos se replican con tal rapidez que la refutación se vuelve casi imposible. Además, esta dinámica facilita el llamado galope de Gish, una estrategia argumentativa que consiste en abrumar a la otra parte con tantas afirmaciones, generalmente falsas o tergiversadas, que resulta inviable responder a todas. En lugar de fomentar un "debate", lo que se genera es un ruido ensordecedor que diluye cualquier esfuerzo por aclarar los hechos.
La sombra política
X, bajo la dirección de Elon Musk, ha tomado un camino similar al de Meta, pero con tintes más marcados. La plataforma se ha enfrentado a críticas por su falta de neutralidad, especialmente durante procesos electorales como las próximas elecciones alemanas. Musk ha expresado abiertamente su apoyo a partidos ultraderechistas como Alternativa por Alemania (AfD), lo que ha encendido alarmas en la Comisión Europea.
En este contexto, X ha decidido no adherirse al código de buenas prácticas de la Unión Europea, una iniciativa voluntaria que busca combatir la desinformación mediante la transparencia en la moderación de contenido. La ausencia de X en este acuerdo refleja una postura de rechazo a cualquier tipo de supervisión externa, lo que supone un desafío para la lucha contra las "fake news" en un continente que exige responsabilidad a las plataformas digitales. Esta decisión no solo refuerza la percepción de X como un espacio propenso a la desinformación, sino que también plantea interrogantes sobre su rol en el mantenimiento de una "democracia" saludable.
La importancia de unas comillas
Aquí entra el gran debate: ¿es mejor que la propia plataforma controle el contenido antes de que llegue al público? Esta idea, aunque controvertida, tiene sus precedentes en los medios de comunicación tradicionales. Durante décadas, los lectores han navegado entre sesgos editoriales, conscientes de las inclinaciones de cada medio. En ese contexto, la desinformación era más manejable: sabíamos qué esperar de un periódico conservador o progresista y podíamos contrastar sus versiones.
En el caso de estas redes sociales, la pluralidad de voces (y bots) supone un sesgo más difícil de analizar, tácito y que puede pasar inadvertido. Al confiar en algoritmos y usuarios para moderar el contenido, el impacto de la desinformación puede extenderse sin que los responsables de la plataforma se hagan plenamente conscientes de ello.
Un terreno resbaladizo
El cambio de rumbo en Meta y X refleja una tendencia más amplia: la desinformación ya no es solo un problema técnico, sino una cuestión social. El contenido político y los debates sensibles quedan ahora mayormente fuera de la moderación automatizada. Pero ¿qué ocurre cuando dejamos que las teorías conspirativas y los bulos circulen libremente?
La psicología nos ofrece pistas inquietantes. Cuando las personas se encuentran con información errónea que no se corrige inmediatamente, tienden a incorporarla a su sistema de creencias. Esto no solo refuerza prejuicios existentes, sino que dificulta la construcción de un consenso social.
Esto no significa eliminar la libertad de expresión (esta vez sin comillas), sino protegerla de los riesgos que surgen cuando la verdad queda enterrada bajo capas de ruido. Si bien la "libertad de expresión" es esencial, también lo es garantizar que esa libertad no se convierta en una herramienta para desinformar.
El futuro de Meta y X, y de las redes sociales en general, dependerá de cómo gestionen este delicado equilibrio. Lo que está en juego no es solo el control de las narrativas, sino la capacidad de las sociedades para distinguir entre hechos y ficciones en un mundo cada vez más conectado, polarizado y suspicaz.
QUE NO TE LA CUELEN:
- Lógicamente, eliminar la moderación centralizada o implementar sistemas como las "Notas de la Comunidad" no garantiza automáticamente una mayor democracia o libertad de expresión. Y, aunque la pluralidad de opiniones puede enriquecernos también abre la puerta a sesgos tácitos y difíciles de detectar, amplificados por la acción de bots y campañas organizadas. En resumen, no es tanto el qué, sino el cómo, las intenciones a las que responde una u otra medida. Más opiniones no siempre equivalen a mayor equilibrio, y que la calidad de la información debe primar sobre la cantidad de participantes en el "debate".
REFERENCIAS (MLA):
- Lewandowsky, Stephan, Ullrich K. H. Ecker, and John Cook. "Beyond Misinformation: Understanding and Coping with the ‘Post-Truth’ Era." Journal of Applied Research in Memory and Cognition, vol. 6, no. 4, 2017, pp. 353-369. Elsevier, doi:10.1016/j.jarmac.2017.07.008.
- Nyhan, Brendan, and Jason Reifler. "When Corrections Fail: The Persistence of Political Misperceptions." Political Behavior, vol. 32, no. 2, 2010, pp. 303-330. Springer, doi:10.1007/s11109-010-9112-2.
- Fazio, Lisa K., et al. "Knowledge Does Not Protect Against Illusory Truth." Journal of Experimental Psychology: General, vol. 144, no. 5, 2015, pp. 993-1002. American Psychological Association, doi:10.1037/xge0000098.
- Ecker, Ullrich K. H., et al. "Effects of Subtle Misinformation in News Headlines." Journal of Experimental Psychology: Applied, vol. 20, no. 4, 2014, pp. 323-335. American Psychological Association, doi:10.1037/xap0000028.
✕
Accede a tu cuenta para comentar