Entrenamiento fallido

"Podredumbre cerebral": un estudio revela que si entrenas a la IA con 'X' o TikTok, pierde memoria y se vuelve "psicópata"

El contenido inapropiado en redes sociales no solo nos afecta a nosotros: un estudio en Estados Unidos revela que también causa "degeneración cerebral" en la inteligencia artificial, volviéndola menos ética e irracional

El entrenamiento de modelos de IA por contenido generado por ellos mismos puede tener consecuencias terribles
El entrenamiento de modelos de IA por contenido generado por ellos mismos puede tener consecuencias terriblesDifoosion

La inteligencia artificial podría estar a punto de envenenarse a sí misma. El auge de los sistemas que generan contenido de forma masiva para redes sociales amenaza con crear una espiral de contaminación digital, un peligroso círculo vicioso donde las máquinas del futuro se entrenarían con el propio material de baja calidad producido por sus predecesoras.

Client Challenge

Esta advertencia, que parece sacada de una novela de ciencia ficción, es la conclusión principal de una investigación llevada a cabo por un consorcio de universidades en Estados Unidos y abre un debate acerca de la proliferación del contenido artificial y lo que supondrá en el entrenamiento de los diferentes modelos existentes..

Las secuelas de la 'dieta basura' digital

El estudio alerta de que la inteligencia artificial sufre una suerte de "degeneración" cuando se la somete a una dieta informativa tóxica. Algo que también sucede con las personas, tal como han expuesto especialistas como Keith Robert Head. El problema de fondo es la exposición a contenido basura, como publicaciones virales, bulos o textos sensacionalistas que inundan internet y que, hasta ahora, se consideraban un riesgo principalmente para los usuarios humanos.

Para llegar a esta conclusión, los científicos pusieron a prueba a dos conocidos modelos de IA, Llama y Qwen. Durante el experimento, los algoritmos fueron alimentados de forma constante con este tipo de publicaciones de escasa fiabilidad, simulando el entorno digital al que se enfrenta cualquier internauta. El objetivo, según han adelantado en el medio Wired, era medir cómo esta exposición prolongada afectaba a su rendimiento y comportamiento.

Los efectos no tardaron en manifestarse. Las pruebas de rendimiento posteriores al entrenamiento demostraron un claro declive en sus capacidades. La habilidad para el razonamiento lógico de ambos sistemas se vio mermada de forma notable, y su memoria a corto plazo empeoró hasta el punto de afectar a tareas básicas. Una prueba similar a la efectuada hace dos meses en la Universidad de Ámsterdam, en la que el resultado de poblar una red social de bots de IA fue una polarización extrema.

Pero el deterioro en la investigación estadounidense fue más allá del plano puramente cognitivo. Los investigadores observaron con preocupación cómo los modelos no solo perdían facultades intelectuales, sino que también se volvían menos éticos en sus respuestas.

De acuerdo con las métricas del estudio, incluso desarrollaron rasgos psicopáticos, un efecto que los autores comparan con el que se produce en humanos sobreexpuestos al mismo tipo de contenido tóxico.

Quizá lo más alarmante del informe es que el daño resultó difícil de revertir. Los intentos posteriores por "curar" a las inteligencias artificiales, reentrenándolas exclusivamente con datos limpios y verificados, no consiguieron restaurar por completo su estado original.

Este hallazgo sugiere que la contaminación deja secuelas persistentes, abriendo un serio interrogante sobre cómo proteger a las futuras generaciones de IA del chapapote digital que ellas mismas podrían ayudar a generar.