Facebook: una caza de brujas entre pantallas

40 personas rastrean la red para detectar mensajes que no cumplen con las políticas públicas de la red social más extensa del mundo

  • El centro de operaciones de Facebook para las elecciones, en Dublín (Irlanda) / Reuters
    El centro de operaciones de Facebook para las elecciones, en Dublín (Irlanda) / Reuters
Dublín.

Tiempo de lectura 4 min.

05 de mayo de 2019. 22:07h

Comentada
Naiara Bellio.  Dublín. 6/5/2019

Una caza de brujas a contrarreloj contra el discurso de odio y los perfiles falsos se desarrolla en el centro de datos que Facebook apostó en Dublín, hace ya unos años. En un ambiente colorido y juvenil, plagado por frases de inspiración, discurre una de las labores más difíciles para la red.

El espacio es abierto y muy ameno, y recibe a un escogido grupo de periodistas invitados a visitarlo para conocer el ‘modus operandi’ del equipo de ingenieros y especialistas dedicado a monitorizar el contenido político de la red que pudiese interferir en las elecciones venideras, así como eliminarlo si fuera pertinente.

Se suceden murales decorados con logos interactivos, pizarras gigantes firmadas de arriba a abajo, e incluso una Minnie Mouse de cartón indica a los perdidos las zonas «no accesibles para visitantes».

Una sala acristalada, atestada de pantallas de todos los tamaños, alberga a cuarenta personas que buscan perturbaciones en esa arena digital: mensajes señalados que no cumplen con las políticas públicas de la red social más extensa del mundo.

En los monitores predominan gráficos que podrían pasar por electrocardiogramas y que recogen en tiempo real patrones de conversación sobre asuntos mayoritariamente políticos.

Parecen registrar los mismos parámetros: cómo se acelerará el corazón de los gestores de contenidos de Facebook cuando observan que la línea azul que representa la conversación en la red social se dispara repentinamente hacia arriba.

«Riesgo inminente». Es lo que significa esa alteración en las pantallas, pero también las palabras que se leen en uno de los carteles dispersos por la habitación indicando la zona con más tendencia a revolucionarse cuando se produce esa señal de alerta.

Otros avisan de los espacios en los que se trata contenido de WhatsApp, de Instagram, o quién de los asistentes lidia con el mercado de datos de Francia o de Italia.

Los trabajadores presentes apenas separan la mirada de los monitores, concentrados en la vital tarea de que un vídeo o una imagen concreta no dé más vueltas de las necesarias y, pese a ello, en las pantallas de todos se observan publicaciones idénticas.

«Es por una cuestión de seguridad», apunta una de las acompañantes asignadas a los grupos de prensa que han acudido con todo su arsenal multimedia, para llevarse todo grabado.

La imagen se ha quedado congelada durante el período en el que los medios de comunicación discurren por la sala haciendo preguntas en una lista de posts entre los que figura una felicitación del Partido Socialista Europeo a su homólogo en España, dada su reciente victoria en las elecciones generales.

A raíz de comentar esta casualidad cuando Efe esté presente en la sala, una de las empleadas se da la vuelta en su silla: «¿A qué medio pertenecéis?», pregunta en español. Quizás con un pequeño toque de nostalgia por la lejanía con su país de origen.

La intención es que empleados procedentes de España puedan hablar de su experiencia como parte del pequeño cerebro de operaciones de la tecnológica, pero, en principio, a los medios asistentes no se les permite establecer ese contacto.

Sí que explica a grandes rasgos el funcionamiento de la sala Lexi Sturdy, jefa de Operaciones: «Aquí buscamos picos de discurso de odio o manipulación del voto que desencadene esa rueda en la que la sala deba ponerse a investigar a qué se debe esa subida y encontrar nuevos patrones en lo que denuncia la gente».

Cantidades ingentes de datos traducidos en mensajes, imágenes, enlaces, vídeos y más son difícilmente analizables por el ojo humano, aunque sean los de decenas de miles de personas acompañadas de algoritmos de última precisión, como es el caso de Facebook.

Los propios usuarios, generadores del objeto de ese análisis incansable, son a la vez los mejores aliados para detectarlo. Cuanto más denunciado es un contenido, más fácil es señalar su perjuicio.

Al salir, el muro (físico) de Facebook pregunta «qué se te pasa por la cabeza». Lo cierto es que muchas cosas, entre ellas cómo debe sentirse tener ese ‘súper poder’ con el que los pequeños individuos jamás podrán lidiar: ponerle reglas al otro planeta Tierra que no vemos, el que vive en Internet. EFE

Últimas noticias