Redes sociales
Coto al odio en Twitter
La red social toma medidas para eliminar aquellos mensajes, imágenes y perfiles que fomenten la violencia. No va a tener una tarea fácil
La red social toma medidas para eliminar aquellos mensajes, imágenes y perfiles que fomenten la violencia. No va a tener una tarea fácil.
Apartir de ayer mismo, Twitter ha tomado la decisión de reducir los mensajes de odio y abuso en esta red social. En este contexto entrarán las «cuentas de organizaciones que utilicen o promuevan la violencia para sus causas», una medida que no se aplica a gobiernos u organismos militares.
La medida no solo se aplica a los tuits, también a la información personal, al nombre de usuario, a la biografía o a la imagen seleccionada. Así, el mensaje que «incluya una amenaza violenta o insultos múltiples, racismo o mensajes sexistas, que incita al miedo o menosprecian la cualidad humana, culminará en una suspensión permanentemente. Planeamos desarrollar herramientas internas para ayudarnos a identificar cuentas infractoras para complementar los informes de los usuarios».
Twitter asegura que en las próximas semanas creará una serie de herramientas: algoritmos similares a los que utiliza YouTube para contenidos que violan la política de usuarios, destinar un grupo de personas cuya tarea sea revisar contenidos polémicos y/o basarse en denuncias de otros usuarios.
Los algoritmos serían sin duda la primera medida y la más fácil de implementar, al menos para señalar posibles contenidos que inciten a la violencia. Funcionarían del siguiente modo: al igual que hacen los motores de búsqueda en la red para rastrear el contenido que buscamos, Twitter crearía su propia receta para encontrar palabras claves y así detectar cuentas. Todo ello debería ser revisado luego por empleados para que la frase o el mensaje no hayan sido sacados de contexto o formen parte de lo que otra persona dijo y alguien más está tratando de explicar. No es fácil y se pueden cometer errores, unos a los que hasta ahora Twitter nunca se había enfrentado. Un ejemplo es el cierre de la cuenta de Jayda Fransen, líder del grupo de derecha Britain First, cuyas opiniones fueron retuiteadas por el mismísimo Donald Trump... ¿tendrá Twitter lo que hay que tener para bloquear la cuenta del presidente de Estados Unidos si infringe las condiciones de uso? ¿Se puede aplicar de modo retroactivo? El comunicado lo deja claro: ellos mismos saben que se han metido en un berenjenal.
«En nuestro esfuerzo por ser más agresivos respecto a este tipo de conductas – concluye el post publicado ayer –, podemos cometer algunos errores y estamos trabajando en un proceso de apelación sólido, destinado a aquellas personas cuyas cuentas sean etiquetadas como violentas y no estén de acuerdo. Evaluaremos e interactuaremos con estos cambios en los próximos días y semanas, y los mantendremos informados de los avances».
Los usuarios cuyo contenido sea bloqueado en estos días, podrán ver primero cómo, dependiendo de la gravedad de la falta, se puede bloquear el mensaje (no se puede comentar o retuitear, primero por unos días y si la falta se repite cada vez por más tiempo), cerrar la cuenta temporalmente o borrarla de modo definitivo.
Quienes quieran denunciar contenido, deben primero tener una cuenta y luego, en la esquina superior derecha, donde aparece una flecha hacia abajo, pulsarla para «Reportar Tweet». Hasta ahora ,Twitter se había distinguido por, en palabras de su creador, Jack Dorsey, un sutil «dejar hacer ya que es mejor que lo que se quiere decir se haga en público que a puertas cerradas». Pero ahora eso ha cambiado y deberá decidir cuándo se infringe su política de uso, cómo se ha hecho y qué castigo merece. Para los más de 330 millones de usuarios activos que tiene cada mes, resulta un dilema cómo conseguirá todo esto. Y es que se ha abierto una veda que nadie sabe ahora mismo cuánto puede perjudicar a ambos: usuarios y red social.
✕
Accede a tu cuenta para comentar