Las tensiones actuales entre el Departamento de Defensa de EE.UU. (DoD) y Anthropic destacan un choque fundamental sobre la gobernanza de la IA en aplicaciones militares, especialmente tras la operación de enero de 2026 para capturar al expresidente venezolano Nicolás Maduro. Según informes recientes, el Pentágono presiona por un acceso sin restricciones a modelos de IA como Claude, insistiendo en que el uso debe limitarse solo por las leyes de EE.UU. y la Constitución, sin salvaguardas impuestas por empresas. Anthropic, sin embargo, mantiene que su tecnología debe adherirse a límites éticos, como prohibiciones para facilitar vigilancia masiva, desarrollar armas autónomas o habilitar violencia, límites integrados en sus políticas de uso.
Antecedentes y Eventos Clave
- Orígenes del Contrato: En junio de 2025, Anthropic lanzó Claude Gov, un modelo de IA especializado para agencias gubernamentales de EE.UU. en seguridad, defensa e inteligencia. Se ofreció a un precio nominal de 1 dólar para superar a competidores, lo que llevó a un contrato del DoD por 200 millones de dólares en julio de 2025. Esto integró a Claude en sistemas clasificados a través de asociaciones con Palantir, convirtiendo a Anthropic en el proveedor único inicialmente.
- Cambio Bajo la Administración Trump: El énfasis de la era Biden en restricciones éticas para la IA dio paso a una postura más permisiva tras el regreso de Donald Trump. El DoD ahora exige que todos los proveedores de IA permitan el uso para "todos los propósitos legales", viendo las barreras corporativas como obstáculos para misiones de seguridad nacional.
- El Incidente Maduro como Detonante: Claude se utilizó (sin aprobación explícita previa de Anthropic) en la operación de fuerzas especiales de EE.UU. que capturó a Maduro el 3 de enero de 2026 en Caracas. Esto involucró análisis de inteligencia y planificación a través de la plataforma de Palantir, resultando en 83-100 bajas. La revelación generó preocupaciones internas en Anthropic y escaló la disputa, ya que la empresa cuestionó si esto alineaba con sus principios de IA responsable.
- Terminar el Contrato: Cambiar a proveedores más complacientes. El 25 de febrero de 2026, xAI anunció un acuerdo permitiendo que Grok opere en sistemas clasificados del DoD sin restricciones, rompiendo el monopolio de Anthropic. Google y OpenAI también están en negociaciones y parecen dispuestos a cumplir el estándar de "todos los propósitos legales".
- Etiquetar como Riesgo en la Cadena de Suministro: Esta medida severa, típicamente usada contra entidades extranjeras como Huawei, prohibiría a contratistas de EE.UU. trabajar con Anthropic, devastando su negocio (incluyendo inversores como Amazon y Google). Hegseth reportedly convocó al CEO de Anthropic, Dario Amodei, para una reunión de alto riesgo, amenazando con esto si no se hacen concesiones antes de una fecha límite (inicialmente el 27 de febrero de 2026).
- Invocar la Defense Production Act (DPA): Esta ley de 1950, usada durante el COVID-19 para suministros médicos, podría obligar a Anthropic a proporcionar acceso sin restricciones a la IA durante "emergencias". Aunque menos probable por obstáculos legales, se ha mencionado como opción nuclear para anular resistencia corporativa.