Salud mental

Tik Tok refuerza sus medidas de seguridad frente al suicidio

La red social más usada por los jóvenes se blinda de las críticas sobre su mala influencia con decisiones como la de no permitir el acceso a menores de 13 años o limitarlo a una hora al día a menores de 18

Una niña de 13 años, en la UCI con quemaduras de tercer grado por un reto de TikTok
Cada poco tiempo Tik Tok aparece ligado a algun suceso trágico con menores DADO RUVICREUTERS

Tik Tok es la única red social del mundo a la que los menores de 13 años tienen prohibido el acceso y, en la que los menores de 18 solo pueden navegar 60 minutos al día. Sus responsables aseguran que sus medidas de seguridad y de protección a los menores son muy superiores a los de otras plataformas, algo lógico si pensamos que se trata de la red más utilizada por los jóvenes entre 18 y 25 años. De sus más de mil millones de usuarios activos en todo el mundo, el 35% son adolescentes. En España, la plataforma cuenta con 8.8 millones de usuarios activos, de los cuales 41% tienen entre 16 y 25 años.

Conscientes de su alcance y en el punto de mira de las críticas por fomentar la conducta adictiva y agravar los problemas de salud mental entre los menores, los responsables de la plataforma se afanan por poner en marcha herramientas cada vez más novedosas para que sus usuarios hagan un uso responsable y "saludable" de la red.

Las últimas, que anunciaron la semana pasada en un evento en Madrid, son la contratación en todo el mundo de unos 40. 000 profesionales que "vigilan" la seguridad y los contenidos en setenta lenguas, o los sistemas de tecnologías "automatizadas" basadas en inteligencia artificial para detectar contenidos inapropiados, que se complementan -han destacado- con la figura del "moderador de contenidos".

La directora de Política de Producto para Europa, Oriente Medio y África de Tik Tok, Emer Cassidy, destacó, además, la posibilidad que tienen los padres de vincular una cuenta a la que pueden tener sus hijos y los diferentes filtros que se han incorporado para impedir que accedan a determinados contenidos. Entre ellos destacó el llamado "content level", que presenta el contenido a los menores de acuerdo con su edad y evita que puedan acceder a vídeos para mayores; o la conexión con centros de información y ayuda -como el Teléfono de la Esperanza- cuando se detecta que buscan palabras o retos que pueden resultar peligrosos.

La plataforma cuenta con un código de "seguridad y bienestar de los menores" y otro de "salud mental y conductual", que incluye medidas de prevención del suicidio y de autolesiones, trastornos alimentarios e imagen corporal y de prohibición de retos y actividades peligrosas. Aun así, se siguen sucediendo los casos de menores que fallecen o acaban hospitalizados por seguir retos virales que la plataforma no ha frenado ni bloqueado.