Redes sociales
Víctimas de Twitter
La suspensión de cuentas de esta red social, que no infringen las normas, ha hecho que muchos digan basta. Desde hace unas semanas la red ha evidenciado fallos.
La suspensión de cuentas de esta red social, que no infringen las normas, ha hecho que muchos digan basta. Desde hace unas semanas la red ha evidenciado fallos.
De acuerdo con la web Internet Live Stats, cada segundo se publican unos 6.000 tweets. Esto es más de 500 millones de tweets diarios. Obviamente es imposible que exista un equipo humano que controle este caudal de publicaciones para determinar si cumplen las normas. Por más que pudiéramos ver un tuit por segundo y aceptarlo o rechazarlo en virtud de su cumplimiento con las normas de uso de la red social, Twitter debería tener un equipo de 18.000 personas, que en turnos de 8 horas se dedicaran exclusivamente a leer tuits. Mucho más de los cerca de 3.500 empleados totales que tiene esta página.
La solución son los algoritmos: «recetas digitales» que analizan los textos, palabras y las imágenes para determinar si infringe las normas y condiciones de uso. Si tenemos en cuenta que a veces los humanos discutimos por el tono de un mensaje en WhatsApp, es lógico que las máquinas tengan problemas similares...pero a las armas las carga el diablo y a las máquinas las programa el ser humano.
Desde hace algunas semanas Twitter ha evidenciado ciertos fallos en los algoritmos que han provocado las suspensiones injustas de cuentas. En algunos casos eran errores ridículos debido a la nueva ley europea de protección de datos y derechos de autor, que ha llevado a que una foto con un gato pueda ser confundida con una imagen famosa y se suspenda la cuenta por ir en contra de los derechos de autor. Pero el último caso se produjo este fin de semana cuando Twitter suspendió la cuenta del Colectivo de víctimas del terrorismo, COVITE, así como la de su presidenta, Consuelo Ordóñez.
¿Qué norma se saltaron estas dos cuentas? Los responsables de la suspensión hasta ayer domingo, no habían emitido ningún comunicado oficial al respecto pero podemos deducir que se trata de un error en los algoritmos. Principalmente debido a recientes publicaciones realizadas por Twitter en su sitio oficial. El 24 de septiembre, un artículo firmado por Del Harvey y Vijaya Gadde (ambas del área de Seguridad y Confianza de Twitter), señalaba que si bien en el pasado se habían creado normas para asegurar que todos los usuarios eran «atendidos lo mejor posible, ahora, por primera vez, vamos a abrir el proceso a todo el mundo para que participe con sus comentarios y opiniones antes de que las nuevas políticas y normas lleguen a formar parte de las Reglas de Twitter». En pocas palabras se convocaría a los twitteros para que emitan su opinión sobre las normas.
El artículo contaba con un enlace titulado «Nuestro enfoque de desarrollo de políticas y nuestra filosofía de control del cumplimiento» en el que pretendía explicar sus intenciones a la hora de «abordar el lenguaje deshumanizador en Twitter ya que puede tener repercusiones fuera de la plataforma, como normalizar comentarios violentos».
Se trata de abordar el lenguaje deshumanizador desde una perspectiva humana en lugar de dejárselo a las máquinas, léase algoritmos. Algunos párrafos publicados aquí tienen una buena intención, pero hay otros que requieren una segunda e imprescindible lectura. En uno de ellos se puede leer «Twitter refleja las conversaciones reales que suceden en el mundo, y a veces eso incluye perspectivas que a otros pueden resultarles ofensivas, controversiales o intolerantes. Si bien aceptamos que todos se expresen en nuestra plataforma, no toleramos comportamientos que utilicen el acoso, la intimidación o el miedo para silenciar la voz de otras personas». Bien, lógico y hasta obvio, el problema es cómo se consigue esto sin dejar que la decisión de qué es acoso, intimidación o miedo recaiga en un algoritmo. Para ello Twitter cuenta con un Consejo de Confianza y Seguridad formado por asociaciones (en España se encuentran Internet Segura for Kids, CERTSI, Oficina de Seguridad del Internauta (OSI) o el Teléfono de la Esperanza) y expertos que se «aseguran que nuestras políticas atienden lo mejor posible a todos los usuarios». Son ellos también lo que, según Twitter, deciden en conjunto, qué publicación pasa la criba y cuál no, qué usuario vulnera derechos ajenos y cuál no.
Pero hay un párrafo de la polémica. Y dice: «Con el fin de garantizar que las personas tengan la oportunidad de ver todas las perspectivas de una cuestión, hay escasas ocasiones en las que permitimos la permanencia en nuestra plataforma de determinado contenido o comportamiento que, en otras circunstancias, se consideraría infractor de nuestras Reglas; esto se debe a que consideramos de legítimo interés público que dicho contenido o comportamiento esté a disposición de todos. Cada situación se evalúa de forma aislada y la decisión final está a cargo de un equipo multidisciplinario».
En castellano: hay excepciones a las reglas y así como los algoritmos pueden suspender cuentas que según su programación, hayan infringido una norma, en ocasiones se puede dejar que un contenido que vulnera el mismo acuerdo, se publique. Porque es de interés público o porque hay que dar la oportunidad de ver todas las perspectivas de una cuestión. «Este enfoque – explican los responsables de Twitter – permite que coexistan muchos tipos de discurso en nuestra plataforma y, en particular, fomenta el discurso contrario, corrige declaraciones o percepciones erróneas, señala las hipocresías o las contradicciones, denuncia los discursos peligrosos o que incitan al odio, o ayuda a producir cambios de opinión y a desarticular argumentos».
Al igual que los algoritmos, los humanos también podemos errar. ¿Quién es capaz de determinar cuándo un contenido que incita al odio es de interés general o por qué la hipocresía puede servir a un bien común?
Censura para unos, barra libre para otros
Twitter cuenta con un Consejo de Confianza y Seguridad que deciden que publicación pasa la criba y cuál no. En sus reglas hay un punto que invita a la polémica:
«Con el fin de garantizar que las personas tengan la oportunidad de ver todas las perspectivas de una cuestión, hay escasas ocasiones en las que permitimos la permanencia en nuestra plataforma de determinado contenido o comportamiento que, en otras circunstancias, se consideraría infractor de nuestras reglas».
✕
Accede a tu cuenta para comentar