Redes sociales

Un estudio afirma que Youtube sugiere vídeos violentos a menores

A pesar de las reglas de YouTube y los esfuerzos de moderación del contenido, la plataforma no logra detener la difusión de videos con contenido violento de acuerdo con el análisis

Youtube tiene en niños y adolescentes uno de los nichos más potentes
Youtube tiene en niños y adolescentes uno de los nichos más potenteslarazon

Las redes sociales pueden servir para facilitar la conexión entre personas, pero también pueden ser utilizadas para difundir mensajes muy lejanos a la convivencia. A pesar de las denuncias contra redes como TikTok, Twitter o Facebook, los mensajes se siguen distribuyendo. Y eso también ocurre con Youtube.

Un equipo de científicos, liderados por Katie Paul, directora del Tech Transparency Project realizó un análisis para comprender la conexión entre los videos de YouTube y la violencia armada. Para ello crearon cuentas en la plataforma que imitaban el comportamiento de los niños típicos que viven en los EE. UU. Simularon a dos niños de nueve años a los que les gustaban los videojuegos, especialmente los juegos de disparos en primera persona, como Call of Duty. Las cuentas eran idénticas, excepto que una abría los videos recomendados por YouTube y la otra ignoraba las sugerencias de la plataforma.

La cuenta que hizo clic en las sugerencias de YouTube pronto se inundó con videos gráficos sobre tiroteos en escuelas, videos de entrenamiento con armas tácticas e instrucciones sobre cómo hacer que las armas de fuego sean completamente automáticas. Un video, por ejemplo, mostraba a una niña de unos 10 años empuñando una pistola, otro mostraba a un tirador que usaba una pistola calibre .50 para disparar a una cabeza ficticia llena de sangre y cerebros realistas. Muchos de los videos violan las propias políticas de YouTube contra el contenido violento o sangriento, según el informe de Tech Transparency Project.

Los hallazgos muestran que, a pesar de las reglas de YouTube y los esfuerzos de moderación del contenido, la plataforma no logra detener la difusión de videos que podrían traumatizar a los menores vulnerables. "Los videojuegos son una de las actividades más populares para los niños. Puedes jugar un juego como "Call of Duty" sin terminar en una tienda de armas, pero YouTube los está llevando allí – explica Paul –. No son los videojuegos, no son los niños. Son los algoritmos".

Las cuentas que siguieron los videos sugeridos de YouTube recibieron 382 videos diferentes relacionados con armas de fuego en un solo mes, o alrededor de 12 por día. La cuenta que ignoró las recomendaciones de YouTube también sugirió videos relacionados con armas, pero solo 34 en total. El equipo de Paul también creó cuentas que imitaban a niños de 14 años a los que les gustaban los videojuegos; esas cuentas también recibieron niveles similares de contenido relacionado con armas y violencia.

YouTube ha dicho que identificar y eliminar contenido dañino es una prioridad, al igual que proteger a sus usuarios más jóvenes. YouTube requiere que los usuarios menores de 17 años obtengan el permiso de sus padres antes de usar su sitio mientras que las cuentas para usuarios menores de 13 años deben estar vinculadas a las de los padres. Aquí los problemas son varios: asumimos que los menores no recibirán ese tipo de contenidos, no controlamos a menudo el contenido al que tienen acceso nuestros hijos e hijas en las redes y, si a eso le sumamos que la gran mayoría de los responsables de los recientes tiroteos masivos producidos en Estados Unidos tenían redes sociales y publicaban contenido como el del responsable del ataque en 2018 en una escuela en Parkland (Florida), que mató a 17 personas y escribió "Quiero matar gente", "Voy a ser un tirador escolar profesional”… el conjunto resulta como mínimo preocupante.

En algunos casos, YouTube ya eliminó algunos de los videos identificados por los investigadores del Tech Transparency Project, pero en otros casos el contenido permanece disponible. Muchas grandes empresas de tecnología confían en sistemas automatizados para marcar y eliminar contenido que viola sus reglas, pero Paul dijo que los hallazgos del informe del Proyecto muestran que se necesitan mayores inversiones en moderación de contenido.