¿Puede el gobierno obligar a una empresa de IA a eliminar límites éticos? El caso Anthropic

Anthropic asegura que ha colaborado activamente con la seguridad nacional de EE.UU. y ha renunciado a ingresos significativos para evitar el uso indebido de su IA por actores extranjeros.
El Pentágono habría advertido que podría excluir a la empresa de sus sistemas y clasificarla como “riesgo de cadena de suministro” si no acepta “cualquier uso legal” de su tecnología.
Compartir nota:

Anthropic, una de las compañías más influyentes en el desarrollo de modelos avanzados de IA, publicó un comunicado en el que confronta directamente al Departamento de Defensa de Estados Unidos (DoD) tras recibir presiones para eliminar dos salvaguardas clave en el uso de sus sistemas.

Dario Amodei, CEO y cofundador comentó que la empresa no está dispuesta a renunciar a ciertos principios, incluso si eso implica perder contratos gubernamentales valorados en miles de millones de dólares. El conflicto pone sobre la mesa una pregunta central para el futuro de la tecnología: ¿hasta dónde debe llegar la inteligencia artificial en temas de defensa y vigilancia?

Hasta ahora, la relación entre Anthropic y el gobierno estadounidense había sido estrecha. La compañía fue la primera desarrolladora de IA de frontera en desplegar modelos en redes clasificadas del gobierno, así como en laboratorios nacionales. Su modelo Claude es utilizado en tareas sensibles como análisis de inteligencia, modelado y simulación, planificación operativa y ciberoperaciones.

Con inversiones gubernamentales que superan los 50 mil millones de dólares anuales a nivel mundial, según estimaciones de la industria, Estados Unidos apostó fuerte por integrar IA en su infraestructura de defensa. De hecho, el presupuesto del Pentágono para tecnologías emergentes, incluida la IA, ha crecido de forma sostenida en los últimos años como parte de su estrategia para mantener ventaja frente a potencias como China.

Amodei también recordó que Anthropic tomó decisiones costosas en nombre de la seguridad nacional. La empresa renunció a ingresos por cientos de millones de dólares al bloquear el acceso a su tecnología a compañías vinculadas con el Partido Comunista Chino, además de reforzar controles para evitar usos no autorizados.

El CEO Dario Amodei afirmó que la empresa priorizará sus principios éticos, incluso si eso implica perder contratos multimillonarios con el gobierno.

Las dos líneas rojas: vigilancia masiva y armas autónomas totales

El punto de quiebre se dio el 26 de febrero, cuando Anthropic estableció públicamente dos límites que considera innegociables.

El primero es la vigilancia masiva doméstica. Aunque la empresa respalda el uso de IA para inteligencia exterior y contraespionaje legítimo, rechaza su aplicación para construir sistemas de vigilancia interna a gran escala. El CEO advierte que los modelos avanzados pueden integrar datos dispersos —movimientos físicos, historial de navegación web, redes de contactos— y convertirlos en perfiles detallados de ciudadanos en cuestión de segundos.

En Estados Unidos, diversas organizaciones civiles han alertado que la compra de datos comerciales por parte del gobierno puede eludir requisitos tradicionales de órdenes judiciales. El uso de IA para analizar estos datos podría multiplicar exponencialmente la capacidad de monitoreo estatal.

La reducción del error humano y de falsas alarmas posiciona a la IA en videoseguridad como un habilitador clave de la automatización inteligente.

La segunda línea roja es el desarrollo de armas completamente autónomas, es decir, sistemas capaces de seleccionar y atacar objetivos sin supervisión humana directa. Si bien Anthropic reconoce que existen armas parcialmente autónomas en conflictos actuales, sostiene que los modelos de IA actuales no son lo suficientemente confiables para tomar decisiones letales sin intervención humana.

El debate sobre armas autónomas lleva años en foros internacionales. Naciones Unidas ha discutido posibles regulaciones, mientras expertos en ética tecnológica advierten sobre riesgos de errores, sesgos o fallas técnicas con consecuencias irreversibles.

La respuesta del Pentágono y la tensión contractual

Según el comunicado, el Departamento de Defensa habría exigido que cualquier empresa contratista acepte “cualquier uso legal” de sus sistemas, eliminando las salvaguardas mencionadas. Entre las posibles medidas, se incluiría retirar a Anthropic de sistemas estratégicos, etiquetarla como “riesgo de cadena de suministro” una categoría usualmente reservada para actores extranjeros adversarios— e incluso invocar la Ley de Producción de Defensa para forzar cambios en sus modelos.

Anthropic afirma que preferiría continuar colaborando con el gobierno estadounidense, pero solo bajo sus condiciones éticas actuales. En caso de ruptura, promete facilitar una transición ordenada hacia otro proveedor para no afectar operaciones militares críticas.

Este enfrentamiento ocurre en un momento crucial. El mercado global de inteligencia artificial podría superar el billón de dólares hacia 2030, según proyecciones de consultoras como McKinsey y PwC, y los gobiernos son actores clave en esa expansión. Sin embargo, la presión por mantener ventaja tecnológica puede chocar con principios democráticos y derechos civiles.

Lee más: 

Compartir nota:

Publicaciones Relacionadas

Scroll to Top