
Redes sociales
Científicos crean una plataforma social poblada entera por bots: el resultado ha sido alucinante
Investigadores de la Universidad de Ámsterdam crearon una red social de bots con inteligencia artificial para probar intervenciones contra la polarización, pero descubrieron que ninguna logró evitar las cámaras de eco, e incluso algunas agravaron el problema

Un estudio de la Universidad de Ámsterdam, usando una plataforma simulada con chatbots de IA a través del modelo GPT-4o, uno de los que se ha visto obligada a recuperar OpenAI ante la presión de sus usuarios, ha revelado una inquietante realidad. No en vano el estudio demuestra la dificultad de evitar la polarización en redes sociales, incluso cuando lo que se pretende es precisamente evitarla.
Además, a pesar de probar diversas estrategias, ninguna logró un éxito satisfactorio. Esto sugiere una tendencia casi inevitable hacia las cámaras de eco digitales.
La ineficacia de las intervenciones digitales simuladas
Investigadores liderados por Petter Törnberg y Maik Larooij, profesor asistente de IA y redes sociales, y asistente de investigación respectivamente, poblaron la plataforma de manera íntegra con entes movidos con GPT-4o para probar soluciones para redes sociales reales con el fin de prevenir problemas como los que se están detectando en otros estudios entorno a las redes sociales y su uso.
El diseño experimental de esta investigación era de una complejidad elevada, con el objetivo primordial de evitar la polarización y la formación de cámaras de eco en un entorno simulado tal como recoge Futurism. Para ello, los investigadores implementaron y analizaron seis estrategias de intervención específicas, buscando replicar las soluciones propuestas habitualmente para plataformas con interacción humana.
Estas medidas incluyeron desde la modificación de las secciones de noticias a un estricto orden cronológico hasta el fomento activo de puntos de vista diversos, pasando por la ocultación de estadísticas sociales o la eliminación de las biografías de cuentas.
Por otro lado, los resultados de este experimento son notables y, en algunos casos, alarmantes. Ninguna de las intervenciones probadas consiguió evitar la polarización de forma satisfactoria; algunas solo mostraron efectos modestos.
De hecho, ciertas medidas, como la ordenación cronológica del feed de noticias, lejos de mejorar la situación, agravaron el problema. Provocó que el contenido más extremo emergiera a la parte superior, aunque redujo la desigualdad de atención.
Además, el estudio documentó una extrema desigualdad de atención dentro de las comunidades simuladas. Una minoría muy reducida de publicaciones acumulaba la vasta mayoría de la visibilidad, un patrón ya detectado en plataformas humanas. Estos hallazgos proyectan pesimismo sobre la capacidad real para moderar la polarización que domina el ecosistema digital actual.
En este sentido, las implicaciones de estos descubrimientos son gran valor para el futuro de las redes sociales y la sociedad. Si incluso la IA simula esta inevitabilidad, guiar el discurso humano hacia la pluralidad parece un desafío ante el que todavía queda mucho camino por recorrer. Es importante matizar que el estudio aún no ha sido revisado por pares, pero su mensaje preliminar representa una seria advertencia que legisladores y desarrolladores no deberían ignorar.
✕
Accede a tu cuenta para comentar