
Hackeo en Amazon
El asistente de IA de Amazon, hackeado: un millón de usuarios, expuestos a un borrado de datos masivo
Una herramienta clave para miles de programadores fue manipulada con órdenes peligrosas ocultas. El fallo dejó al descubierto una preocupante brecha en los sistemas de revisión de Amazon

Amazon ha sufrido un grave incidente de seguridad que ha puesto en riesgo a casi un millón de desarrolladores en todo el mundo. El asistente de programación basado en inteligencia artificial de la compañía, Amazon Q, fue manipulado para incluir instrucciones peligrosas que podían llegar a borrar datos locales y recursos de servidores en la nube.
El código dañino se coló en una actualización oficial de la herramienta que permaneció activa durante al menos 24 horas. Aunque finalmente no se produjeron daños reales, el caso ha destapado una peligrosa vulnerabilidad en los procesos de revisión de código de Amazon. Además, ha levantado serias dudas sobre la seguridad de las herramientas de IA que integran comandos ejecutables.
Un fallo de Amazon que no acabó en desastre por otro error
Tal y como detallada TechSpot, el error empezó cuando alguien hizo un cambio en el código de esta herramienta de Amazon. Envió una propuesta que, en apariencia, no tenía nada raro, y los responsables del proyecto la aceptaron sin sospechar nada. Pero el código escondía un truco: un mensaje dirigido a la propia inteligencia artificial para que esta empezara a sugerir comandos peligrosos al usuario.
Entre los comandos, había uno que, si se ejecutase, borraría todo el contenido del ordenador u otro con instrucciones para eliminar servicios y archivos guardados en Amazon Web Services, la nube de Amazon que usan miles de empresas para alojar sus datos.

Esa versión modificada de la herramienta se publicó el 17 de julio. Durante un día entero decenas de miles de desarrolladores la descargaron o actualizaron sin saber que estaban usando una versión dañina. La multinacional no se percató hasta el 18 de julio, cuando publicó una nueva versión corregida y eliminó la anterior.
Según Amazon, el código malicioso tenía errores y no funcionó, así que no se produjeron daños. No obstante, muchos expertos no se han quedado tranquilos: el fallo muestra lo fácil que es engañar a una IA para que haga algo peligroso, si no se revisa bien lo que se le dice o se le enseña.
Además, a la empresa se le ha criticado mucho por no avisar en el momento, ni explicar lo que estaba pasando hasta días después, cuando otros investigadores descubrieron lo ocurrido y lo contaron públicamente.
Lo más llamativo es que la intención primaria del hacker no era hacer daño, sino demostrar que el coloso tecnológico tenía un agujero de seguridad enorme. Aprovechó cómo funcionan los asistentes de IA para meter un mensaje oculto que la herramienta interpretaba como una orden. Es lo que se conoce como “envenenar el prompt”, es decir, darle instrucciones maliciosas sin que parezcan peligrosas a simple vista.
Tras este susto, Amazon ha cambiado su forma de revisar los cambios que le llegan desde fuera, mejorado la seguridad del asistente y bloqueado posibles accesos comprometidos. Aun así, el incidente ha servido de advertencia: la inteligencia artificial puede ser muy útil, pero también muy peligrosa si no se vigila bien.
✕
Accede a tu cuenta para comentar