Cargando...

Tecnología

Todas las formas en que la IA puede causar un ‘daño severo’ al mundo, según DeepMind

La división de IA de Google cree que puede haber una Inteligencia Artificial General para 2030

Todas las formas en que la IA puede causar un ‘daño severo’ al mundo, según DeepMind. Alfredo Biurrun / ChatGPT.

El Santo Grial de la inteligencia artificial es la AGI, siglas en inglés de Inteligencia Artificial General. Esto es, un sistema de inteligencia artificial capaz de comprender, aprender y realizar cualquier tarea intelectual que pueda llevar a cabo un ser humano, con una flexibilidad cognitiva similar. Aún no existe, pero desde la división de IA de Google, DeepMind, creen que podría llegar muy pronto, para 2030.

Llegado el caso, ¿cómo evitar que realice acciones que vayan contra los seres humanos? Investigadores de DeepMind han publicado un nuevo informe técnico en el que abordan esta cuestión y dan algunas sugerencias para desarrollar una AGI de manera segura. Para ello, han identificado las 4 formas en las que esta podría causar un ‘daño severo’ al mundo.

El equipo liderado por el cofundador de DeepMind, que fue absorbida por Google en 2014, Shane Legg, categoriza estos riesgos como: mal uso, desalineamiento, errores y riesgos estructurales. Los dos primeros son los tratados en mayor profundidad en el estudio.

Mal uso

Este es un riesgo que ya existe con las actuales herramientas de inteligencia artificial generativa, pero las mayores capacidades de una AGI harán que el daño potencial se multiplique. Por ejemplo, una persona malintencionada con acceso a AGI podría utilizarla para encontrar vulnerabilidades informáticas desconocidas o crear virus personalizados que sirvan como armas biológicas.

Según DeepMind, las empresas que desarrollen AGI deberán realizar pruebas exhaustivas y crear estrictos protocolos de seguridad posteriores al entrenamiento, mayores y mejores que los actuales. También sugieren lo que llaman ‘desaprendizaje’, un método con el que eliminar capacidades peligrosas completamente, aunque el estudio expresa dudas sobre si esto sería posible sin limitar considerablemente los modelos.

Desalineamiento

Este es el peligro ‘Skynet’, en referencia a la IA que toma consciencia y destruye el mundo en las películas de Terminator. Se produce cuando un sistema se libera de los límites impuestos por sus diseñadores y realiza acciones que sabe que su creador no tenía intención de permitir.

Para evitarlo, DeepMind sugiere técnicas como la supervisión amplificada, donde dos IA revisan mutuamente sus resultados, creando así un sistema menos propenso a desviarse. Si esto falla, recomiendan pruebas intensivas y monitoreo para detectar señales tempranas de peligro, así como mantener las AGI en entornos virtuales seguros con supervisión humana directa. Básicamente, garantizar que exista siempre un ‘interruptor de apagado’.

Errores

Es cuando una IA realiza una acción dañina pero no de forma intencionada. Ejemplos hemos conocido muchos en estos dos años y medio de furor por la IA desde el lanzamiento de ChatGPT. DeepMind pone el foco en el uso militar y señala que las fuerzas armadas podrían desplegar una AGI por presión competitiva, pero esta podría cometer errores con consecuencias muy serias al tener que realizar tareas mucho más complejas que las que lleva a cabo la IA actualmente.

La primera recomendación de DeepMind es no permitir que la AGI alcance demasiado poder, para lo que sugiere despliegues graduales y limitados, así como filtrar órdenes mediante un sistema ‘escudo’ que garantice que son seguras antes de implementarlas.

Riesgos estructurales

DeepMind define los riesgos estructurales como consecuencias no intencionadas pero reales derivadas de la interacción de múltiples agentes artificiales con la compleja sociedad humana.

El equipo de Shane Legg incide en que la AGI podría generar información falsa tan convincente que ya no seamos capaces de discernir qué o quién es confiable. También señala la posibilidad de que la AGI obtenga progresivamente el control sobre sistemas económicos y políticos hasta que un día nos encontremos en un mundo gobernado por máquinas. Este último tipo de riesgo es el más difícil de prevenir, pues dependería del funcionamiento futuro de personas, infraestructuras e instituciones.