Facebook

¿Puede la tecnología prevenir un asesinato?

El caso del «asesino de Facebook», que subió el vídeo de cómo acabó con la vida de un hombre escogido al azar a la citada red social, confronta tecnología y leyes. ¿Cómo eliminar estas imágenes a la mayor celeridad?

Steve Stephens, (izqda.) de 37 años y que se suicidó tras tres días en busca y captura, subió a Facebook Live el vídeo del asesinato de Robert Godwin (dcha.)
Steve Stephens, (izqda.) de 37 años y que se suicidó tras tres días en busca y captura, subió a Facebook Live el vídeo del asesinato de Robert Godwin (dcha.)larazon

El caso del «asesino de Facebook», que subió el vídeo de cómo acabó con la vida de un hombre escogido al azar a la citada red social, confronta tecnología y leyes. ¿Cómo eliminar estas imágenes a la mayor celeridad?

«Lo que ocurrió en Minnesota es un presagio de lo que vendrá». Así se expresaba, a inicios del año pasado, el profesor la Universidad de Leigh, Jeremy Littau, autor de un estudio sobre tecnología móviles y streaming. Y «lo que ocurrió en Minnesota» fue la muerte de Philando Castle en un tiroteo policial y retransmitida por las redes sociales. En una semana fue vista por cinco millones de personas.

El problema es que «lo que vendrá» ya ha llegado. La semana pasada, en Cleveland, Steve Stephens, de 37 años, asesinó a Robert Godwin, un señor de 74 años, y lo transmitió por Facebook Live. La red social publicó el pasado lunes un comunicado en el que señalaba la cronología de los hechos. Su análisis es importante. A las 11:09 Stephens, que fue ayer hallado muerto en su vehículo de un disparo, sube el vídeo en el que menciona su intención de matar a alguien. A los dos minutos, el segundo vídeo, con el disparo. A las 11:22 confiesa su asesinato en la red. Durante cinco minutos transmite en directo. Apenas termina la transmisión, alguien denuncia este último vídeo. Casi dos horas después del primer mensaje, a las 12:59, otra persona denuncia el vídeo del disparo. A las 13:22, más de dos horas después que todo comenzara, la cuenta de Stephens se desactiva y el vídeo ya no es visible al público.

Al contrario de lo que ocurre con YouTube, por ejemplo, Facebook Live o Periscope no tienen un sistema de control de lo que suben los usuarios. O casi. Sí recurren a la inteligencia artificial (IA) para intentar detectar violaciones a las leyes, por ejemplo identificar personas en una base de datos policial. En un post subido unos meses atrás, el propio Mark Zuckerberg señalaba que el sistema de IA que utiliza Facebook Live es capaz de «leer y comprender las noticias», lo que le serviría para separar las noticias sobre terrorismo de propaganda terrorista. Pero también asegura que están buscando «sistemas para detectar fotos y vídeos que IA pueda etiquetar y que sean revisados por nuestro equipo. Pero aún está en etapas muy tempranas de desarrollo».

De hecho, Justin Osofsky, vicepresidente de operaciones globales de Facebook, aseguró en un comentario en la red social tras el asesinato cometido por Stephens que «sabemos que lo podemos hacer mejor. Damos prioridad a aquellas denuncias que implican un riesgo importante para nuestros usuarios y estamos trabajando para que el proceso de revisión sea cada vez más veloz». Teniendo en cuenta que los usuarios de la red ven unos 100 millones de horas de vídeos de Facebook al día, el trabajo es enorme.

Pero hay más obstáculos, como explica Susana Gonzales Ruisánchez, especialista en derecho tecnológico y ciberseguridad y manager de Hiberus LegalTech & CiberSec: «Aquí el problema es que antes de regularse esto deben fijarse límites claros, ya que un error en un bloqueo o censura puede desembocar en un conflicto con la libertad de expresión, dependiendo a quién le demos el privilegio de decidir qué es contenido inapropiado y qué no».

Al mismo tiempo, la eficacia de un algoritmo o de la inteligencia artificial no impedirá que se cometan crímenes en la red, pero es una herramienta fundamental. «El uso de la IA y BigData para monitorizar los parámetros de los contenidos en la red –precisa Ruisánchez–, es una buena opción que apuesto ya está en uso. De hecho, está sirviendo para detectar términos en estas redes relativas a terrorismo internacional e incluso de pederastia infantil, por ejemplo».

En lo que también puede colaborar un algoritmo, en el que Facebook ya está trabajando, es primero en la prevención. Señalar palabras claves que obliguen a un ser humano a revisar el vídeo en cuestión para contextualizar el contenido. Y segundo, en ubicar rostros. Del mismo modo que actúa la supuestamente romántica app de origen ruso Find Face facilitando encontrar a alguien que veamos en algún lugar público, Facebook podría rastrear entre miles de imágenes de usuarios a la caza y captura de una persona en particular. Lo ideal, y en esto deberían actuar todas las fuerzas de seguridad, es que todas las redes sociales compartan esta información para que la detención se pueda efectuar lo antes posible.

Uno de los obstáculos actuales es que, al no tener un sistema que filtre el contenido de lo que se transmite, por defecto se permite todo. Y son los usuarios los primeros que, en general, alertan de las malas prácticas. «Y no siempre se denuncia», incide Ruisánchez, que recuerda el caso de «la violación a una menor, el pasado mes de marzo, que se retransmitió íntegramente porque nadie lo denunció».

Y es que quizás no se trata tanto de tecnología, inteligencia artificial y algoritmos, ya que Facebook falla en algo igual de importante. «Me temo que el algoritmo –añade Ruisánchez – se centrará más en pornografía (es conocida la obsesión que tienen por los desnudos y la censura en EE UU) y en contenidos similares, si acaso piratería, manteniendo páginas de piratería, porno encubierto, asociaciones pro bulimia, xenofobia, bullying y hasta permitiendo otros que son más dañinos y perjudiciales como en este caso. Lo más negativo es que tras las pantallas hay mucha gente capaz de ver este tipo de vídeos como si fueran una película. También hay quien ve y disfruta de películas de terror. Lo complicado aquí es que es real y la repercusión y alcance es brutal en escasos minutos».

Los desarrolladores de Facebook Live, Periscope y otras opciones similares de live streaming han dado un poder sin restricciones a los usuarios. Se trata de un arma, de doble filo, sin licencia para su uso. Y si bien es cierto que trae numerosas ventajas, también conlleva una gran responsabilidad. «El asesinato de Cleveland –afirma Jeremy Littau en su estudio– es importante no sólo por su contenido, sino porque un usuario de Facebook le mostró al resto del mundo una nueva herramienta que de otro modo jamás hubiera pensado en utilizar en una ocasión similar. Serán los usuarios, en última instancia, quienes configuren las capacidades de estas herramientas en el futuro».

Y la realidad es que esto acaba de empezar, porque no hay ninguna inteligencia, ni humana ni artificial, que pueda contra los impulsos de un psicópata que quiere ser reconocido y que cuenta con las herramientas para ello.