Tecnología
Meta prescinde de los verificadores de datos en Facebook e Instagram para 'restaurar la libertad de expresión'
En su lugar, Meta adoptará las Notas de la comunidad que Twitter implementó poco después de su compra por Elon Musk
Meta ha anunciado hoy un cambio histórico en sus políticas de moderación de contenido. En un comunicado firmado por Joel Kaplan, Director de Asuntos Globales en Meta, la compañía ha reconocido los 'errores' cometidos por sus sistemas automatizados de moderación y por las agencias de terceros de verificación de datos que trabajan con las plataformas de la compañía. Por estos motivos, la compañía aborda una reestructuración en la que los verificadores de datos serán sustituidos por un sistema como las Notas de la comunidad de X y una nueva política de moderación que dará mayor cabida a diversos puntos de vista y tendrá menos restricciones en temas habituales que pueden considerarse controvertidos como la inmigración y la identidad de género. Todo ello para 'volver a ese compromiso fundamental con la libertad de expresión', algo que Meta reconoce haber abandonado en los últimos años.
'Hemos visto que este enfoque funciona en X: allí otorgan a su comunidad el poder de decidir cuándo las publicaciones podrían ser engañosas y necesitan más contexto. Personas con una gama diversa de perspectivas deciden qué tipo de contexto resulta útil para que otros usuarios lo vean. Creemos que esta podría ser una mejor manera de cumplir con nuestra intención original de brindar a las personas información sobre lo que están viendo, y una que sea menos propensa a sesgos', señala Kaplan.
Las Notas de la comunidad de X llegan a Facebook, Instagram y Threads
La función de Notas de la comunidad se implementará primero en Estados Unidos 'durante los próximos meses', según Meta, y mostrará una etiqueta, discreta, que indica la disponibilidad de información adicional en una publicación, reemplazando las advertencias a pantalla completa que los usuarios debían pulsar para descartar. Al igual que la función de X, Kaplan afirma que sus propias Notas de la comunidad 'requerirán el acuerdo entre personas con una variedad de perspectivas para ayudar a prevenir valoraciones sesgadas'.
Las Notas de la comunidad llegaron a X poco después de que Elon Musk la comprara, cuando aún se llamaba Twitter, en 2022 y despidiera a la mayor parte de su plantilla, incluyendo a buena parte de los moderadores de contenido. La idea de un sistema que solo visibiliza las notas que obtienen un acuerdo entre suficientes usuarios con un histórico de posicionamientos políticos diferentes, se inició con la anterior dirección de Twitter, pero su despliegue global llegó con Musk. El magnate fue objeto de múltiples críticas por sustituir la moderación tradicional con este sistema, pero el tiempo, y ahora Zuckerberg, parecen haberle dado la razón.
Mark Zuckerberg, con un discurso sobre la situación de la libertad de expresión que podría firmar Elon Musk
Pero, ¿cómo se ha llegado a este giro de 180 grados? Mark Zuckerberg, CEO de Meta, ha explicado en un vídeo publicado en Facebook que 'vamos a volver a nuestras raíces y nos centraremos en reducir los errores, simplificar nuestras políticas y restaurar la libertad de expresión en nuestras plataformas'. Señala las elecciones estadounidenses como uno de los motivos para la decisión de la compañía y critica a 'los gobiernos y los medios tradicionales' por presionar 'para censurar más y más'. 'Las recientes elecciones también se sienten como un punto de inflexión cultural hacia, una vez más, priorizar la libertad de expresión', afirma.
Además del nuevo aire político que llega con la administración de Donald Trump y la necesidad de adaptarse a él, Meta se ha explayado con los fallos del sistema. De hecho, el comunicado de Meta puede considerarse una enmienda a la totalidad de lo que ha sido la moderación de contenidos en Facebook e Instagram durante la última década, impulsada 'en parte en respuesta a la presión social y política para moderar el contenido'.
Los responsables de la censura: verificadores de datos con sesgos, presión política y sistemas automatizados
'Estamos cometiendo demasiados errores, frustrando a nuestros usuarios y, con demasiada frecuencia, interponiéndose en el camino de la libertad de expresión que nos propusimos permitir. Demasiado contenido inofensivo es censurado, demasiadas personas se encuentran injustamente encerradas en la 'cárcel de Facebook' y, a menudo, somos demasiado lentos para responder', explica Kaplan.
Fue en 2016 cuando Facebook inició su programa de verificación de datos y llegó a acuerdos con 'organizaciones independientes' para delegar esta tarea. En España, empresas como Newtral y Maldita proporcionan servicios de verificación de datos a Meta. Según recoge Eldiario.es, no han sido informadas de cambios en su relación con la compañía.
'Los expertos, como todo el mundo, tienen sus propios sesgos y perspectivas. Esto se reflejó en las decisiones que algunos tomaron sobre qué verificar y cómo. Con el tiempo, terminamos con demasiado contenido verificado que la gente entiende como un discurso y debate político legítimo', afirma Kaplan. 'Un programa destinado a informar con demasiada frecuencia se convirtió en una herramienta para censurar.'
Para reducir el número de errores, los sistemas automatizados que usa Meta para buscar infracciones de sus políticas dejarán de estar enfocados a todas las posibles infracciones y se aplicarán solo en las más graves, como son el terrorismo, la explotación sexual infantil, las drogas, el fraude y las estafas. El enfoque mantenido hasta ahora 'ha hecho que nuestras reglas sean demasiado restrictivas y demasiado propensas a la aplicación excesiva' y 'ha dado lugar a demasiados errores y a la censura de demasiado contenido que no debería haberlo sido'. La mayoría de los sistemas de Meta para predecir automáticamente qué publicaciones podrían violar sus políticas y rebajar su visibilidad también serán eliminados.
Para las infracciones menos graves, 'vamos a confiar en que alguien informe de un problema antes de tomar cualquier medida'.
Antes de eliminar una publicación, Meta comenzará a requerir que varios revisores estén de acuerdo en la decisión y también usará modelos de inteligencia artificial para 'proporcionar una segunda opinión sobre algunos contenidos antes de tomar medidas de cumplimiento'. Para simplificar y acelerar los procesos de revisión de decisiones de moderación y recuperación de cuentas, la compañía contratará más personal.
✕
Accede a tu cuenta para comentar