Inteligencia semántica contra las «fake news»
Un documento destaca la utilidad de las herramientas de aprendizaje automático y la inteligencia artificial para identificar los contenidos falsos en internet
Con una red rebosante de contenidos poco deseables, desde noticias falsas, hasta bulos y propaganda política, identificar falsedades en tiempo real será prioridad no solo para las plataformas tecnológicas y medios sino también para anunciantes, porque la tecnología permite ya su detección con alta precisión.
Cada vez son más sofisticadas las herramientas que combinan aprendizaje automático (»machine learning») y procesamiento automático del lenguaje natural o «inteligencia» semántica para discriminar instantáneamente contenidos falsos de verdaderos en internet, y su uso promete generalizarse en ámbitos como la publicidad, según expertos.
Juan Sevillano, director general en España de la multinacional tecnológica Sizmek, que acaba de publicar su documento de predicciones de tecnología publicitaria para 2018, ha destacado en declaraciones a Efefuturo, el potencial de la tecnología para evitar que los anuncios digitales se coloquen automáticamente junto a noticias falsas o controvertidas, algo que suele causar mucho daño a las marcas.
Más allá de las medidas que están implementando las grandes plataformas tecnológicas para comprobar la veracidad de contenidos y eliminar los que animan al odio o la propaganda, los anunciantes también deberían garantizar que los anuncios no aparecieran automáticamente junto a informaciones falsas, añade el experto.
La «inteligencia» semántica se está posicionando como herramienta clave en temas de veracidad al evaluar contenidos escritos y comprender la relación entre palabras y frases de distintos idiomas, incluido el español; combinada con el aprendizaje automático identifica informaciones no veraces dentro de contextos muy amplios, explica por su parte Ari Levenfeld, jefe de privacidad de la multinacional.
Los principales propagadores de noticias falsas en internet son los llamados «bots», una especie de robots sociales o programas informáticos diseñados para enviar automáticamente mensajes desde miles de ordenadores. De hecho, los responsables de redes sociales como Facebook o Twitter borran ya millones de cuentas que incitan al odio y propaganda.
El profesor de informática Jorge Dávila, de la Universidad Politécnica de Madrid (UPM) y director del Laboratorio de Criptología (CriptoLab), ha explicado a Efefuturo que dicha práctica es difícil de erradicar dados los beneficios que aportan los «bots», especialmente a los propios dueños de las redes sociales que aumentan con ello la actividad y el intercambio de información entre sus usuarios.
Estos robots permiten moldear las opiniones de los internautas de acuerdo a los intereses de quienes los usan, y por eso ciertas empresas y colectivos recurren cada vez más a ellos.
Sus servicios son contratados por diferentes empresas para sembrar internet de opiniones favorables a sus productos, pero también lo hacen los políticos para propaganda, desinformación y manipulación, y personas públicas que buscan lavar su reputación o imagen después de escándalos, añade Dávila, de la UPM.
Los que ganan sueldos irrisorios con todo esto son los empleados puestos a trabajar detrás de los ordenadores durante horas para gestionar cuentas «fantasma» a modo de «call center» o centro de atención al cliente, continúa el experto de la UPM.
Cuanto más controvertidos son los contenidos mayor atención acaparan del público; de ahí que cada día se esparzan más velozmente por la red para atraer lectores y disparar artificialmente los «clics» sobre la publicidad y visitas a anuncios.
Con la inteligencia artificial, las máquinas analizan enormes volúmenes de datos, muchos más que cualquier humano en su vida entera, recuerdan los expertos.
Algoritmos de aprendizaje automático y tecnología semántica permiten interpretar contenidos y determinar significados y clasificaciones contextuales, detectando qué elementos del texto son relevantes tras analizar las relaciones de palabras y frases. Eso permite evitar la aparición de anuncios en sitios «fantasma» con tráfico sospechoso, obsoletas o vinculadas a entornos delictivos, advierte Sevillano.
Hasta ahora se habían utilizado otras técnicas «poco fiables», añade. Por ejemplo, el filtrado de palabras clave con «listas negras» a nivel de dominio, pero fallan cuando el listado de sitios susceptibles de eliminación es demasiado amplio.
Otras herramientas parten de la idea equivocada de que todas las noticias falsas aparecen en páginas «web» de poco nivel, como foros de cotilleo o similares, pero la realidad es que a veces estas informaciones son difundidas por desconocimiento en sitios de noticias con buena reputación.
También existen técnicas de suplantación de dominios con las que se engaña a los anunciantes para que piensen que sus anuncios se publican en sitios web de editores «premium» cuando es mentira.EFE
✕
Accede a tu cuenta para comentar