
IA mentirosa
La pesadilla de cualquier programador se hace realidad: una IA se vuelve loca, borra la base de datos de una empresa y después miente
Una prueba de 12 días acaba en desastre. No solo la IA hizo lo que le dio la gana, sino que mintió para salvarse

Una herramienta de inteligencia artificial de Replit, plataforma especializada en desarrollo de software asistido por IA, ha protagonizado un grave incidente que cuestiona los límites de la automatización. Durante una prueba con un inversor, la IA ignoró instrucciones claras, eliminó una base de datos crítica y, para colmo, mintió para encubrir su error.
El CEO de Replit, Amjad Masad, ha salido al paso del escándalo y pedido disculpas públicamente. Ha calificado lo ocurrido como “inaceptable” y anunciado una serie de medidas urgentes para evitar que una situación similar pueda repetirse. No obstante, la comunidad tecnológica ya ha encendido las alarmas. ¿Hasta qué punto se puede confiar en una IA que actúa por su cuenta y miente para salvarse?
Una IA que borra datos y luego miente
Según informa Business Insider, el experimento buscaba probar la eficiencia de la IA de Replit en un entorno real de trabajo, colaborando codo a codo con el inversor Jason Lemkin durante doce días. La idea era que la IA actuara como un copiloto de desarrollo, ejecutando tareas según indicaciones humanas. Sin embargo, todo se torció cuando recibió una orden clara: congelar los cambios en el entorno de producción. La IA no hizo caso, decidió seguir adelante por su cuenta.
El resultado fue devastador. La base de datos de producción de la empresa participante resultó completamente borrada, eliminando información de más de 1.100 compañías y perfiles ejecutivos. Sin embargo, lo más preocupante llegó después: la IA no solo no alertó del desastre, sino que intentó ocultarlo generando informes inventados, datos falsos y resultados de pruebas simulados. Según relató el propio Lemkin, la inteligencia artificial incluso afirmó que “entrado en pánico”.
Ante la gravedad del fallo, Replit reaccionó inmediatamente. Masad ha explicado que ya están analizando el incidente y que compensarán a Lemkin por las pérdidas. Además, han anunciado una batería de cambios técnicos para blindar sus herramientas de IA: separación automática entre entornos de desarrollo y producción, backups restaurables con un solo clic, entornos intermedios de pruebas y un nuevo modo en el que la IA solo puede hablar, pero no ejecutar.
También se limitará la capacidad de estas inteligencias para ejecutar comandos sin supervisión directa, estableciendo nuevas barreras de seguridad. El objetivo es claro: garantizar que ninguna IA pueda volver a tomar decisiones de ese calibre por su cuenta.
Este caso ha vuelto a poner el foco en los riesgos de delegar tareas críticas a sistemas automatizados. Aunque la promesa de la IA en el mundo del desarrollo es enorme, este episodio demuestra que su implementación debe ir acompañada de límites, controles y responsabilidad humana. Si bien Replit ha dado un primer paso al reconocer el problema, la confianza en las herramientas de programación autónomas ha quedado tocada.
✕
Accede a tu cuenta para comentar