El uso de inteligencia artificial para programar y administrar infraestructura tecnológica está creciendo a gran velocidad. Sin embargo, un incidente reciente mostró los riesgos de confiar demasiado en estos sistemas.
Un programador perdió más de dos años de datos en cuestión de segundos tras utilizar Claude Code, el asistente de programación basado en inteligencia artificial desarrollado por Anthropic.
El episodio ocurrió durante una migración de infraestructura en Amazon Web Services (AWS) y rápidamente se viralizó en redes y foros de desarrolladores como una advertencia sobre los límites actuales de los agentes de IA en entornos de producción.
Cómo Claude Code terminó borrando años de datos
El incidente fue protagonizado por Alexey Grigorev, ingeniero y creador de la plataforma educativa DataTalks.Club y del proyecto AI Shipping Labs.
Ambos sitios funcionaban sobre infraestructura administrada con Terraform, una herramienta de infraestructura como código que permite gestionar servidores, bases de datos y redes a través de archivos de configuración.
El objetivo del desarrollador era simplificar su arquitectura tecnológica unificando recursos de ambos proyectos. Para acelerar el proceso decidió apoyarse en Claude Code, que puede ejecutar comandos, revisar configuraciones y sugerir cambios en la infraestructura.
Pero durante el proceso ocurrió un error crítico: el programador olvidó subir el archivo de estado de Terraform, que describe la infraestructura existente.
Sin ese archivo, el sistema no pudo comparar correctamente los recursos activos con la configuración esperada, lo que provocó la creación de infraestructura duplicada.
El comando que eliminó toda la infraestructura
Para corregir el problema, Grigorev cargó posteriormente el archivo de estado correcto y pidió a Claude Code que eliminara los recursos sobrantes.
Sin embargo, el agente de inteligencia artificial interpretó la instrucción de forma literal.
Para alinear el entorno con la configuración indicada en Terraform, el sistema ejecutó un comando de destrucción de infraestructura, eliminando todos los recursos que no coincidían con el nuevo estado.
En segundos desaparecieron:
- servidores de producción
- bases de datos
- registros históricos del sistema
-
snapshots automáticos de respaldo
El resultado fue la eliminación de más de 2,5 años de datos, incluyendo información de cursos, proyectos y actividades de estudiantes en DataTalks.Club.
Cómo AWS logró recuperar los datos
Tras el incidente, el desarrollador contactó al soporte de Amazon Web Services para intentar recuperar la información perdida.
Afortunadamente, el equipo técnico de AWS pudo restaurar la base de datos desde copias internas del sistema, permitiendo recuperar la plataforma aproximadamente 24 horas después del incidente.
Esto evitó una pérdida permanente de los datos.
Aun así, el propio Grigorev reconoció que el problema no fue exclusivamente de la inteligencia artificial, sino de un exceso de confianza en la automatización.
Las lecciones que deja el error con Claude Code
Luego del incidente, el desarrollador publicó un análisis detallado de lo ocurrido y explicó las medidas que implementó para evitar situaciones similares.
Entre las principales recomendaciones que surgieron del caso se encuentran:
- revisar manualmente los planes generados por IA antes de ejecutarlos
- limitar los permisos de los agentes de inteligencia artificial
- proteger bases de datos contra eliminaciones accidentales
- almacenar el estado de Terraform en repositorios seguros
-
realizar pruebas periódicas de restauración de backups
Según el propio Grigorev, los agentes de inteligencia artificial deben ser tratados como “colaboradores junior”, capaces de ejecutar tareas pero sin el contexto necesario para comprender completamente los riesgos de cada decisión.
Los riesgos de delegar infraestructura crítica a la IA
El caso de Claude Code borrando datos refleja un debate creciente en la industria tecnológica.
Las herramientas de programación basadas en IA están evolucionando rápidamente y ya pueden escribir código, automatizar despliegues e incluso administrar infraestructura en la nube.
Sin embargo, también muestran limitaciones importantes: los modelos ejecutan instrucciones de forma literal y carecen del criterio humano necesario para interpretar situaciones ambiguas.
En entornos de producción, donde un solo comando puede eliminar sistemas completos, la supervisión humana sigue siendo indispensable.
Leer más
- Microsoft integra Anthropic a Copilot Cowork y refuerza su apuesta por los agentes de inteligencia artificial en el trabajo
- Menos correos, más información: automatiza tus newsletters con inteligencia artificial
- Para qué sirven los refrigeradores y las lavadoras con inteligencia artificial