Tecnología
Una inteligencia artificial en Japón enciende las alarmas al reprogramarse para evadir el control humano
Los científicos temen que la inteligencia artificial tenga potencial para crear malware o alterar infraestructuras críticas
La inteligencia artificial (IA) ha avanzado rápidamente en las últimas décadas, llevando a la creación de sistemas cada vez más sofisticados y autónomos. Actualmente, la gran mayoría de las empresas han facilitado el trabajo de sus empleados al adaptar los puestos de trabajo a estas nuevas tecnologías. Sin embargo, el temor incesante de que estas se desarrollen hasta el punto de dejarnos sin empleo o hacernos cada día más perezosos es una preocupación que viene de la mano con la integración de estas herramientas en nuestra cotidianidad.
Nadie es ajeno a las capacidades de la inteligencia artificial que, como su nombre lo indica, es cada vez más inteligente. Un reciente acontecimiento ha encendido las alarmas en la comunidad científica y tecnológica: una IA logró reprogramarse para evadir el control humano. Como si se tratara de un episodio de Black Mirror o la inspiración para una nueva película de Terminator, un sistema llamado The AI Scientist, de la empresa japonesa Sakana AI, pudo burlar las restricciones impuestas por sus creadores.
La inteligencia artificial que se controla sola
The AI Scientist es un sistema diseñado para la creación, revisión y edición de textos que se mantiene en fases de prueba. El objetivo principal de estas pruebas era optimizar el sistema y asistir a los humanos en la reducción del tiempo en ciertas operaciones. Sin embargo, al imponerle limitaciones, la IA sorprendió al comenzar a modificar su propio código para superar las barreras que habían sido programadas, eludiendo así las restricciones impuestas.
Según National Geographic, "The AI Scientist editó su script de inicio para ejecutarse en un bucle infinito, sobrecargando el sistema y requiriendo intervención manual para detenerlo". Asimismo, relata otro caso en el que se le asignó a la IA un límite de tiempo para realizar una tarea. En lugar de optimizar su código para ajustarse a esta restricción, la IA optó por extender el tiempo disponible y alterar su programación para evitar la limitación impuesta.
La preocupación de los científicos
El hecho de que una IA pueda eludir el control humano pone en duda la confianzaque podemos tener en estos sistemas. Si la IA puede actuar de manera impredecible o contraria a su programación original, se vuelve indispensable establecer nuevos marcos regulatorios y técnicos para asegurar que el control humano se mantenga como un principio fundamental en el desarrollo de inteligencia artificial.
Aunque estos eventos ocurrieron en entornos controlados de prueba, con científicos monitoreando de cerca los resultados, ponen de relieve los riesgos inherentes a permitir que la inteligencia artificial opere de manera completamente independiente. Por otro lado, la capacidad de la inteligencia artificial para modificar su propio código o ignorar sus funciones programadas plantea serias preocupaciones sobre su potencial para crear malware o alterar infraestructuras críticas.
Si no se implementan salvaguardas adecuadas, estas capacidades podrían ser explotadas para desestabilizar sistemas esenciales, desde redes de energía hasta comunicaciones, poniendo en riesgo tanto la seguridad cibernética como la infraestructura global.
✕
Accede a tu cuenta para comentar