Cristina López Schlichting

Se buscan humanos

La Razón
La RazónLa Razón

Reírse de un muerto en un vídeo ha sido el último desastre en Youtube. Logan Paul, un estadounidense de 22 años con nada menos que 15 millones de seguidores en Youtube y cuatro millones en Twitter, había prometido colgar en fin de año el «vídeo más loco y más real que he compartido en mis canales» y lo que mostró disgustó de tal manera a la comunidad de internet que tuvo que quitar la grabación y pedir perdón. El pasado 31 de diciembre difundió por la red la grabación en la que paseaba con tres amigos por el llamado «bosque de los suicidios» de Japón, junto al monte Fuji. El grupo descubre en lontananza el cadáver de un hombre ahorcado de un árbol y los cuatro compañeros se van acercando a él. Entretanto van soltando todo tipo de exclamaciones irrespetuosas, en tono de cachondeo.

La indignación en la red ha sido contundente y general y el youtuber ha pedido perdón. Logan ha señalado que su intención no era ofender a nadie sino favorecer una toma de conciencia sobre el problema del suicidio. En Japón constituye una verdadera epidemia, tan sólo en 2014 se quitaron la vida 25.000 personas. En el bosque mencionado se suicidan en torno a un centenar de seres humanos anualmente.

Youtube ha sancionado a Logan apartándolo de su lista de emisores VIP y cancelando diversos proyectos con él, pero el escándalo ha tenido una insospechada consecuencia buena, bien alejada de las mondas entendederas del joven y sus secuaces. Puesto que la plataforma depende para sus ganancias de los anunciantes publicitarios y éstos no están dispuestos a que sus productos queden manchados por animaladas como las de Logan, la consejera delegada, Susan Wojcicki, ha anunciado que se redoblará la vigilancia sobre el contenido de los vídeos y –atención– que los vídeos de los canales con más éxito serán supervisados por humanos en lugar de por las máquinas.

Hasta ahora Youtube confiaba el control de las filmaciones a los algoritmos que detectaban derechos de propiedad con mucha precisión. Varios episodios a lo largo de 2017 han demostrado sin embargo que la sensibilidad sobre la categoría humana de los contenidos sólo está por ahora al alcance de las personas. En varias ocasiones se han colgado en la red por ejemplo vídeos de niños explotados y maltratados, en formato «reality show», que entraban so capa de denuncia social, pero que en realidad eran anzuelos para el morbo y la multiplicación de seguidores.

A una máquina no puede pedírsele que distinga entre mofa y noticia, entre denuncia del suicidio y escarnio de los muertos. Los vigilantes tienen una dura tarea, porque se suben aproximadamente 400 horas de filmación por minuto a la red, pero a partir de ahora la plataforma se la juega con los anunciantes. Resulta consolador comprobar que la sutileza de lo humano es difícil de reducir a algoritmos, aunque el camino haya sido la brutalidad de Paul Logan.