Investigación

Madrid sabe cómo acabar con los bulos en las redes sociales: el algoritmo HyperGraphDis

Supera a los métodos existentes tanto en precisión como en eficiencia computacional, con el objetivo de atajar este fenómeno creciente en las plataformas digitales

Imdea Networks
Imdea NetworksImdea Networks

Una demostración, otra, del impulso investigador en la Comunidad de Madrid. Científicos del Instituto IMDEA Networks, en colaboración con la Universidad Tecnológica de Chipre y Lstech España SL, han desarrollado "un revolucionario algoritmo" que permite detectar desinformación en las redes sociales, ayudando a combatir la proliferación de noticias falsas y bulos.

El algoritmo, denominado 'HyperGraphDis', supera a los métodos existentes tanto en precisión como en eficiencia computacional con el objetivo de atajar este fenómeno creciente en las plataformas digitales, que impacta significativamente los acontecimientos sociales, políticos y económicos.

"Nuestro estudio propone un método de detección que considera las complejas estructuras sociales entre usuarios, así como elementos relacionales y semánticos, para determinar la naturaleza de su contenido generado", ha destacado el investigador senior de IMDEA Networks, Marius Paraschiv, uno de los autores del estudio.

En la misma línea, el profesor de investigación en IMDEA Networks Nikolaos Laoutaris ha explicado que, con volúmenes cada vez mayores de datos de redes sociales, "lograr una alta precisión en la detección de noticias falsas no es suficiente", ya que es necesario que los algoritmos sean "escalables y rápidos para manejar grandes volúmenes de datos casi en tiempo real".

"Nuestro nuevo algoritmo HyperGraphDis no sólo mejora la precisión de la detección sino que también reduce significativamente el tiempo de ejecución, lo que lo hace mucho más práctico que los métodos de la competencia", ha insistido Laoutaris.

Para entrenar el algoritmo, los investigadores del IMDEA Networks evaluaron cuatro conjuntos de datos de Twitter/X sobre las elecciones presidenciales estadounidenses de 2016 y la pandemia del Covid-19.

Tras la prueba, 'HyperGraphDis' superó a los métodos existentes tanto en precisión como en eficiencia computacional, lo que "subraya su eficacia y escalabilidad para abordar los desafíos que plantea la difusión de desinformación".

El estudio revela que la desinformación "no siempre es directamente verificable y depende del contexto", por lo que Paraschiv enfatiza que "es crucial considerar los antecedentes y analizar las relaciones y el entorno de quienes difunden la información, las comunidades a las que pertenecen o su relación con fuentes de desinformación conocidas".

"Además, estas fuentes no son necesariamente las principales generadoras de un elemento de desinformación; pueden ser simplemente propagadores o amplificadores, actuando como individuos que introducen esta desinformación en una comunidad donde luego otros miembros la amplifican", añade.

'HyperGraphDis' combina técnicas avanzadas como redes neuronales hipergráficas, agrupación de gráficos para la detección de comunidades y procesamiento del lenguaje natural para la comprensión de textos, lo que en definitiva permite una detección más eficiente y precisa de la desinformación.

Los investigadores se centraron en Twitter/X debido a la disponibilidad de conjuntos de datos complejos, aunque 'HyperGraphDis' se puede adaptar a otras plataformas sociales.

Otra ventaja es que ofrece a los propietarios de plataformas una manera efectiva de mitigar los efectos de la desinformación, brindando una mejor comprensión de cómo se propaga y cómo combatirla de manera efectiva al facilitar respuestas verificadas y adaptadas al contexto.

El proyecto enfrentó numerosos desafíos, desde recopilar datos actualizados de Twitter/X (los mensajes se eliminan, las cuentas se eliminan, el contenido de los mensajes puede editarse y no reflejar el significado original, etc.) hasta la construcción de hipergráficos complejos.

Sin embargo, los investigadores ya miran hacia el futuro: la detección multimodal de desinformación utilizando modelos avanzados como GPT-4.

"Puede que sea el siguiente paso lógico, pero hay obstáculos importantes que superar, incluidos problemas de escala y agregación de información de múltiples fuentes", concluye Paraschiv.