Ciencia y Tecnología
Facebook admite «contradicciones» en su política de contenido
Asegura que recibe asesoramiento de expertos para perfeccionarlas
Facebook reconoció este martes que sus políticas de gestión de contenidos ofensivos pueden «parecer contradictorias» porque se construyen con las observaciones de expertos de distintas áreas, pero la compañía busca ser «objetiva» al evaluar las «zonas grises», según informa Efe.
La responsable de Gestión Global de Políticas de la tecnológica, Monika Bickert, hizo referencia en un comunicado a la información filtrada sobre estas políticas que publicó recientemente el diario británico The Guardian y que mostraba la dificultad para los examinadores de trazar la línea entre lo aceptable y lo inaceptable.
A pesar de que Facebook no comparte por defecto esas políticas para evitar que surjan métodos para sortearlas, Bickert defendió que la firma sí publica normas comunitarias que evolucionan y que, además, recibe el asesoramiento de expertos.
«Estamos en constante diálogo con expertos y organizaciones locales para todo, desde seguridad infantil, terrorismo o derechos humanos. A veces, esto significa que nuestras políticas pueden parecer contradictorias», señaló la responsable.
«Expertos en daño autoinfligido nos recomendaron que puede ser mejor dejar que se emitan vídeos en directo de este tipo para que la gente pueda alertarse y ayudar, pero hay que eliminarlos después para evitar imitadores», explicó, en este sentido.
Los documentos filtrados revelaban que el verano pasado, los moderadores se enfrentaron a más de 4.500 informes de daño autoinfligido en dos semanas, y las estadísticas de este año hablaban de 5.400 en otro período de dos semanas, una cifra creciente.
No obstante, más casos potenciales generan todavía en Facebook los fenómenos de la pornovenganza y la sextorsión, que según otro documento filtrado ascendieron a 54.000 en un solo mes y cuentan con las políticas más complejas para los evaluadores.
La compañía dirigida por Mark Zuckerberg anunció en abril que iba a contratar a 3.000 nuevos examinadores para abordar este tipo de contenidos, en medio de incidentes como asesinatos, torturas o asaltos sexuales que fueron emitidos en la red social y que vieron cientos de personas.
Bickert subrayó que los encargados de revisar los contenidos susceptibles de ser ofensivos han de superar el «obstáculo» de «entender el contexto» de los mismos.
«Alguien cuelga un vídeo gráfico de un ataque terrorista. ¿Inspirará a la gente a emular la violencia o a pronunciarse contra ella? Alguien pone una broma sobre el suicidio. ¿Están siendo ellos mismos o es un grito de auxilio?», analizó la directiva de Facebook, quien fue fiscal durante más de una década.
Según aseguró, el equipo de políticas de la compañía intenta «mantenerse objetivo» en casos que no son fáciles de revisar porque suelen «estar en una zona gris en la que la gente no se pone de acuerdo».
Para Facebook, dijo, los beneficios de compartir compensan de largo los riesgos. «Pero también reconocemos que la sociedad está decidiendo qué es aceptable y qué dañino, y en Facebook podemos ser una parte importante de esa conversación», concluyó. EFECOM
✕
Accede a tu cuenta para comentar