Tecnología

Los bots son cada vez más humanos

Un estudio científico publicado hoy mismo señala esta capacidad como una de las claves para diferenciarlos, pero cada vez se hace más complicado

El Ministerio de Sanidad usa cuentas falsas para aumentar sus interacciones en Facebook
El Ministerio de Sanidad usa cuentas falsas para aumentar sus interacciones en FacebookCaptura de pantallaFacebook

Las cifras hablan por sí mismas: Twitter ha detectado 1,5 millones de cuentas falsas, el Ministerio de Sanidad ha solicitado a Facebook que investigue las cuentas «fantasmas» que le siguen y a diario las redes sociales se ven invadidas por noticias falsas repetidas por usuarios sin seguidores y sin historial previo. Hoy, más que nunca hasta ahora, la información se ha convertido en una herramienta de poder. Aunque a veces sea desinformación.

Para llegar a ser tan determinante en el panorama informativo, los responsables de fake news y bulos se sirven de un programa informático conocido como bot. Al igual que ocurre con sus «hermanos mayores», los robots, estos programas se encargan básicamente de tareas repetitivas y tediosas que a los humanos les tomaría mucho más tiempo y con un mayor índice de errores. Hay bots «buenos» cuya tarea es rastrear información en la web y los hay malos y los hackers los usan para identificar direcciones de correo electrónico y venderlas para publicidad. Pero el avance tecnológico ha hecho que los bots sean cada vez más inteligentes y en algunas ocasiones esto acelera ciertas tareas, pero también ha propiciado que se utilicen bots en redes sociales para simular la interacción humana, aumentar el número de interacciones y poner en los primeros lugares de búsqueda a determinadas páginas, gracias a la repercusión generada.

El problema es que en las últimas semanas los bots han tenido un peso determinante en la información publicada, tanto en medios como en redes sociales. Y el objetivo es claro: manipular la opinión pública, como ocurrió años atrás durante las campañas electorales de Estados Unidos.

Ahora, un nuevo estudio publicado en Frontiers in Physics, ha revelado algunas diferencias entre el comportamiento de humanos en redes sociales y el de bots. Esto permite identificar una «firma humana» en las redes sociales, algo que podría servir, a autoridades y a las propias redes sociales, para determinar quién es quién (y qué es qué) y así reaccionar con mayor rapidez para impedir la distribución de bulos y señalar responsables de ello. Este es el primer estudio que se centra en el comportamiento humano para detectar bots, en lugar de analizar estos últimos.

«Sorprendentemente – explica Emilio Ferrara, coautor del estudio –, los bots mejoran continuamente para imitar cada vez más el comportamiento que los humanos exhiben típicamente en las redes sociales. Cada vez que identificamos una característica que creemos es prerrogativa del comportamiento humano, como el interés por ciertos temas, pronto descubrimos que los bots de código abierto desarrollados actualmente, también pueden simular esos aspectos».

Para comprender las diferencias, los autores analizaron cientos de miles de tweets asociados con eventos políticos recientes. Se estudió la propensión a participar en interacciones sociales y la cantidad de contenido producido, y luego compararon estos resultados entre bots y humanos, en sesiones de varias horas, para poder dividirlos. Esto sirvió para señalar tendencias propias de cada «especie» en las redes sociales: los bots, debido a su naturaleza automatizada, carecían de sentido de ironía, capacidad para responder con información y su interacción con otros era mucho más reducida.

Por su parte, los humanos mostraban una disminución en la cantidad de contenido producido a medida que avanzaba una sesión: nos cansamos de escribir y nuestro ritmo de producción de tweets originales disminuye.

Otra posible explicación que dan los científicos es que, a medida que pasa el tiempo, los usuarios están expuestos a más publicaciones y pasan más tiempo leyendo que publicando.

Otra diferencia notoria fue el grado de influencia que tenían en sus tweets los comentarios de otros usuarios: mientras los humanos podían mostrar enfado o frustración en sus publicaciones, los bots básicamente ignoraban lo publicado y seguían a lo suyo.

Toda esta información sirvió para crear un sistema de clasificación para la detección de bots que los reconoce por la cantidad de tweets publicados, su interacción con otros usuarios, la cantidad de publicaciones diarias y el ritmo de las mismas. De este modo, gracias a estos detalles, es posible crear un algoritmo destinado a identificar en poco tiempo, cuentas usadas por programas informáticos y penalizarlas inicialmente, para confirmar que se trata de bots y prohibirlas más tarde si se demuestra cierta la presunción.

«Los bots están en constante evolución – concluye Emilio –, con avances rápidos en IA, es posible crear bots cada vez más realistas que puedan imitar cada vez más cómo hablamos e interactuamos en redes sociales. Estamos continuamente tratando de identificar dimensiones que son propias del comportamiento de los humanos en las redes sociales que a su vez se pueden utilizar para desarrollar herramientas más sofisticados para detectar bots».

Solo hay un problema. Si bien es cierto que el presente estudio brinda una estrategia sólida para identificar bots, también da claves a sus desarrolladores para resolver cualquier fallo. Así, no sería extraño que un ejército de cuentas se estén creando, con fotos falsas e interacciones entre las mismas, para evitar los fallos que hasta ahora los diferenciaban de los humanos. La ventaja de los robots es que esto lo pueden hacer mucho más rápido que los humanos. Nuestra oportunidad sigue siendo usar una característica muy humana para exhibirlos: la ironía.