Inteligencia artificial

Unidas vencerán: los distintos modelos de IA se unen de forma espontánea

De acuerdo con un nuevo estudio, “se autoorganizan, alcanzando un consenso sobre las normas lingüísticas, de forma similar a las comunidades humanas”.

Inteligencia Artificial
Inteligencia ArtificialDreamstime

Si algo faltaba en el convulso mundo de las inteligencias artificiales, era que supieran o mejor dicho quisieran unirse entre sí. Ahora, un nuevo estudio publicado en Science, sugiere que poblaciones de agentes de inteligencia artificial (IA), similares a ChatGPT, pueden desarrollar espontáneamente convenciones sociales compartidas mediante la simple interacción.

El estudio, realizado por expertos de la Universidad de Londres y la Universidad Tecnológica de Copenhague, sugiere que cuando estos agentes de inteligencia artificial (IA) con modelos lingüísticos extensos (LLM) se comunican en grupo, no se limitan a seguir guiones o repetir patrones, sino que se autoorganizan, alcanzando un consenso sobre las normas lingüísticas, de forma similar a las comunidades humanas.

“La mayoría de las investigaciones hasta la fecha han abordado los LLM de forma aislada – explica Ariel Flint Ashery, líder del estudio -, pero los sistemas de IA del mundo real involucrarán cada vez más a muchos agentes que interactúan. Queríamos saber: ¿pueden estos modelos coordinar su comportamiento mediante la formación de convenciones, los pilares de una sociedad? La respuesta es sí, y lo que hacen juntos no puede reducirse a lo que hacen individualmente”.

Para ello, el equipo de Ashery creó una serie de experimentos en los que grupos de agentes LLM tenían entre 24 y 200 individuos, y en cada experimento, dos agentes LLM se emparejaron aleatoriamente y se les pidió que seleccionaran un nombre (por ejemplo, una letra del alfabeto o una cadena aleatoria de caracteres) de un conjunto compartido de opciones. Si ambos agentes seleccionaban el mismo nombre, obtenían una recompensa; si no, recibían una penalización y se les mostraban las opciones del otro.

Los agentes solo tenían acceso a una memoria limitada de sus interacciones recientes (no de toda la población) y no se les informó que formaban parte de un grupo. En muchas de estas interacciones surgió de forma espontánea una suerte de vocabulario compartido en todos los agentes, sin coordinación central ni solución predefinida, imitando la forma ascendente en que se forman las normas en las culturas humanas. Aún más sorprendente, el equipo observó sesgos colectivos que no se podían atribuir a agentes individuales.

“El sesgo no siempre proviene de dentro – añade Andrea Baronchelli, coautor del estudio -. Nos sorprendió ver que puede surgir entre agentes, simplemente a partir de sus interacciones. Este es un punto ciego en la mayoría de los trabajos actuales sobre seguridad de la IA, que se centran en modelos individuales”.

A medida que los LLM comienzan a poblar los entornos en línea, desde las redes sociales hasta los vehículos autónomos, los investigadores visualizan su trabajo como un paso fundamental para explorar más a fondo cómo convergen y divergen el razonamiento humano y de la IA, con el objetivo de ayudar a combatir algunos de los peligros éticos más importantes que plantean las IA.