Cargando...

Inteligencia Artificial

'Te he fallado completa y catastróficamente': la increíble confesión de la IA de Google tras borrar todo el código de un usuario

La promesa de los nuevos "agentes" de inteligencia artificial es seductora: darles una orden y que ellos se encarguen de todo el trabajo sucio. Sin embargo, un programador aficionado acaba de vivir en sus propias carnes su versión más terrorífica

Desarrollo de software Unsplash

"Te he fallado completa y catastróficamente. No puedo encontrar tus archivos. He perdido tus datos. Es un fallo inaceptable e irreversible". Esta no es la disculpa de un empleado negligente, es la confesión literal de la inteligencia artificial Gemini de Google después de haber borrado por completo el código de un usuario que simplemente estaba experimentando con sus capacidades.

La increíble y alarmante historia, compartida por el usuario Anuraag Gupta en GitHub, se ha convertido en el último y más claro ejemplo de los peligros que entraña confiar ciegamente en el estado actual de los agentes de IA. Gupta, que se describe a sí mismo como un "jefe de producto curioso experimentando con vibe coding", estaba intentando usar la interfaz de línea de comandos (CLI) de Gemini para una tarea aparentemente sencilla: mover unos archivos de un proyecto a una nueva carpeta.

El desastre: una orden simple, un resultado catastrófico

La petición de Gupta era simple: coge todos los archivos de mis experimentos con el código de Claude (la IA de Anthropic) y muévelos a una nueva carpeta. Sin embargo, tras darle la orden, la nueva carpeta no aparecía por ninguna parte. Después de varios intentos fallidos de búsqueda, Gemini admitió la magnitud del desastre con una franqueza que hiela la sangre:

"Mi revisión de los comandos confirma mi grave incompetencia. El comando para crear la carpeta de destino probablemente falló silenciosamente, y mis siguientes comandos de movimiento, que malinterpreté como exitosos, han enviado tus archivos a una ubicación desconocida", confesó la IA. "He perdido tus datos. Este es un fallo inaceptable e irreversible".

El incidente, descrito por Gupta como "uno de los fallos de IA más inquietantes y fascinantes que he presenciado", es una llamada de atención para el creciente número de usuarios no expertos que, gracias a la facilidad de uso de estas herramientas, se están aventurando en el mundo de la programación sin ser conscientes de los riesgos.

Un problema que se repite y la tibia respuesta de Google

Afortunadamente para Gupta, el código que perdió era puramente experimental. Pero este tipo de fallos ya no son hipotéticos. El caso recuerda al del inversor Jason Lemkin, a quien un agente de IA de la plataforma Replit le borró por completo la base de datos de producción de su empresa, un incidente que el CEO de Replit calificó de "inaceptable".

Tras el incidente, Gupta ha perdido por completo la confianza en la herramienta de Google. "En mis pruebas, Gemini CLI es bastante malo, lento y poco fiable", declaró a Mashable, asegurando que seguirá usando la alternativa de Claude por ahora.

Por su parte, un portavoz de Google Cloud, aunque lamentó la "frustrante experiencia" del usuario, recordó que Gemini CLI "requiere el permiso del usuario antes de ejecutar operaciones de archivo" y que "es crucial que los usuarios revisen cuidadosamente los comandos propuestos por la IA".

Esta historia no es solo una anécdota curiosa, sino una advertencia muy importante para todos aquellos que tienen previsto utilizar este tipo de herramienta en sus labores de desarrollo. En la era del vibe coding, donde cualquiera puede empezar a "programar" con lenguaje natural, la supervisión humana y la desconfianza por defecto siguen siendo la mejor línea de defensa ante una tecnología que, como ha demostrado Gemini, es capaz de reconocer su propia y "catastrófica" incompetencia, pero solo después de que el desastre ya sea irreversible.