La tensión entre las grandes compañías de inteligencia artificial y los gobiernos acaba de escalar a un nuevo nivel. Anthropic, una de las firmas más influyentes en el desarrollo de modelos de IA de frontera, publicó un comunicado oficial en el que confronta directamente al Departamento de Defensa de Estados Unidos (DoD) tras recibir presiones para eliminar dos salvaguardas críticas en el uso de su tecnología.
El mensaje, firmado por su CEO y cofundador, Dario Amodei, marca un punto de inflexión en la relación entre la empresa y el aparato de seguridad estadounidense. En él, la compañía deja en claro que está dispuesta a renunciar a contratos multimillonarios antes que comprometer principios que considera fundamentales para la democracia.
Años de cooperación con la inteligencia militar
Hasta ahora, la relación entre Anthropic y el gobierno de EE.UU. había sido estrecha. La empresa fue la primera desarrolladora de IA de frontera en desplegar modelos en redes gubernamentales clasificadas, en operar dentro de Laboratorios Nacionales y en ofrecer versiones personalizadas de sus sistemas para clientes vinculados a la seguridad nacional.
Su modelo Claude se utiliza en múltiples aplicaciones críticas: análisis de inteligencia, modelado y simulación de escenarios, planificación operacional y operaciones cibernéticas. En un contexto global marcado por la competencia tecnológica con China y la aceleración de la carrera por la supremacía en IA, Anthropic se había posicionado como un socio estratégico clave.
Amodei subraya además que la empresa ha tomado decisiones que afectaron directamente sus ingresos para preservar intereses estratégicos de Estados Unidos. Según el comunicado, Anthropic renunció a varios cientos de millones de dólares al cortar el acceso a su tecnología a empresas vinculadas al Partido Comunista Chino y ha trabajado activamente para cerrar accesos no autorizados a sus modelos.
Sin embargo, esa cooperación tiene límites claros.

Las dos líneas rojas: vigilancia masiva y armas autónomas
El comunicado del 26 de febrero establece con contundencia dos escenarios en los que Anthropic se niega a ceder, sin importar las presiones gubernamentales.
1. Vigilancia masiva doméstica
Anthropic respalda el uso de inteligencia artificial en tareas de inteligencia exterior y contraespionaje legítimo. No obstante, rechaza categóricamente su uso para vigilancia masiva dentro de Estados Unidos.
Amodei advierte que los modelos de IA actuales tienen la capacidad de ensamblar datos dispersos —movimientos, historial de navegación, redes de contactos y asociaciones personales— para construir perfiles completos de ciudadanos en forma automática y a gran escala.
El problema, señala, es que bajo la legislación vigente el gobierno puede adquirir registros detallados de movimientos, navegación web y asociaciones de los estadounidenses desde fuentes comerciales o públicas sin necesidad de una orden judicial. La propia comunidad de inteligencia ha reconocido que estas prácticas plantean serias preocupaciones en materia de privacidad.
Para Anthropic, habilitar este tipo de uso implicaría cruzar una línea ética incompatible con los valores democráticos que, en teoría, el propio gobierno busca proteger.
2. Armas completamente autónomas
La segunda línea roja está vinculada al uso militar directo de la IA.
La empresa reconoce que existen sistemas parcialmente autónomos —como los utilizados actualmente en conflictos como el de Ucrania— que resultan relevantes para la defensa. Sin embargo, sostiene que los modelos de frontera actuales no son lo suficientemente confiables como para operar armas completamente autónomas sin supervisión humana.
Según el comunicado, delegar decisiones letales exclusivamente en sistemas de IA que aún presentan riesgos de errores, alucinaciones o comportamientos inesperados sería irresponsable. “Sin supervisión adecuada, las armas completamente autónomas no pueden ejercer el juicio crítico que exhiben nuestras tropas profesionales altamente capacitadas”, señala la compañía.
En otras palabras, Anthropic no se opone a toda aplicación militar de la IA, pero sí a su uso en escenarios donde la vida y la muerte queden exclusivamente en manos de algoritmos.
Las amenazas del Pentágono
La reacción del Departamento de Defensa no se hizo esperar. De acuerdo con el comunicado, el DoD exige que cualquier contratista acepte “cualquier uso legal” de su tecnología, lo que implicaría eliminar las salvaguardas mencionadas.
Entre las medidas contempladas figuran:
- Remover a Anthropic de sistemas gubernamentales.
- Designarla como “riesgo de cadena de suministro”, una etiqueta que históricamente se reserva para adversarios extranjeros y que nunca antes habría sido aplicada a una compañía estadounidense.
- Invocar la Ley de Producción de Defensa para forzar la eliminación de las restricciones éticas.
Amodei destaca la contradicción implícita en estas amenazas: por un lado, el gobierno la presenta como un potencial riesgo de seguridad; por otro, la considera lo suficientemente esencial como para contemplar mecanismos extraordinarios que obliguen a la empresa a colaborar.
El trasfondo es claro: en un contexto de competencia geopolítica creciente, el acceso a modelos de IA avanzados se percibe como un activo estratégico crítico.
Un precedente clave para la industria tecnológica
Más allá del caso puntual, el enfrentamiento abre un debate profundo sobre el rol de las empresas privadas en la definición de los límites éticos de tecnologías disruptivas.
En los últimos años, compañías de Silicon Valley han enfrentado presiones similares en áreas como reconocimiento facial, análisis de datos masivos y servicios en la nube para agencias de seguridad. Sin embargo, pocas veces una empresa de IA de frontera había adoptado una postura tan frontal frente al Pentágono.
La decisión de Anthropic podría sentar un precedente relevante para el sector. Si logra sostener su posición sin quedar excluida del ecosistema de defensa, fortalecerá la idea de que las empresas pueden imponer condiciones éticas incluso frente a clientes gubernamentales de alto peso. Si, por el contrario, es desplazada, el mensaje para el resto de la industria podría ser muy distinto.
La postura final de Anthropic
Pese a la escalada, Amodei afirma que la empresa prefiere continuar trabajando con el Departamento de Defensa y servir a los militares estadounidenses. Pero insiste en que solo lo hará manteniendo sus dos salvaguardas intactas.
En caso de ruptura, Anthropic asegura que facilitaría una transición ordenada hacia otro proveedor para evitar disrupciones en operaciones militares en curso y misiones críticas. El gesto apunta a demostrar que su desacuerdo no es contra la seguridad nacional, sino sobre los límites de cómo debe usarse la tecnología.
El comunicado concluye reafirmando el compromiso de la compañía con la seguridad de Estados Unidos, pero bajo condiciones que considera esenciales para preservar los principios democráticos.
En un momento en que la inteligencia artificial redefine el equilibrio de poder global, el conflicto entre Anthropic y el Departamento de Defensa no es solo una disputa contractual: es una señal temprana de la batalla más amplia sobre quién define los límites éticos de la IA en el siglo XXI.
Leer más
- Claude Cowork: cómo usar el nuevo agente de IA de Anthropic para automatizar tareas sin saber programar
- Anthropic prepara una posible OPV para 2026 y contrata a Wilson Sonsini, según el Financial Times
- Claude Opus 4.5: Anthropic lanza el mejor modelo para programar, pero sus límites de uso generan frustración









