dimecres, 25 de febrer del 2026

 Las tensiones actuales entre el Departamento de Defensa de EE.UU. (DoD) y Anthropic destacan un choque fundamental sobre la gobernanza de la IA en aplicaciones militares, especialmente tras la operación de enero de 2026 para capturar al expresidente venezolano Nicolás Maduro. Según informes recientes, el Pentágono presiona por un acceso sin restricciones a modelos de IA como Claude, insistiendo en que el uso debe limitarse solo por las leyes de EE.UU. y la Constitución, sin salvaguardas impuestas por empresas. Anthropic, sin embargo, mantiene que su tecnología debe adherirse a límites éticos, como prohibiciones para facilitar vigilancia masiva, desarrollar armas autónomas o habilitar violencia, límites integrados en sus políticas de uso.

Antecedentes y Eventos Clave
  • Orígenes del Contrato: En junio de 2025, Anthropic lanzó Claude Gov, un modelo de IA especializado para agencias gubernamentales de EE.UU. en seguridad, defensa e inteligencia. Se ofreció a un precio nominal de 1 dólar para superar a competidores, lo que llevó a un contrato del DoD por 200 millones de dólares en julio de 2025. Esto integró a Claude en sistemas clasificados a través de asociaciones con Palantir, convirtiendo a Anthropic en el proveedor único inicialmente.
  • Cambio Bajo la Administración Trump: El énfasis de la era Biden en restricciones éticas para la IA dio paso a una postura más permisiva tras el regreso de Donald Trump. El DoD ahora exige que todos los proveedores de IA permitan el uso para "todos los propósitos legales", viendo las barreras corporativas como obstáculos para misiones de seguridad nacional.
  • El Incidente Maduro como Detonante: Claude se utilizó (sin aprobación explícita previa de Anthropic) en la operación de fuerzas especiales de EE.UU. que capturó a Maduro el 3 de enero de 2026 en Caracas. Esto involucró análisis de inteligencia y planificación a través de la plataforma de Palantir, resultando en 83-100 bajas. La revelación generó preocupaciones internas en Anthropic y escaló la disputa, ya que la empresa cuestionó si esto alineaba con sus principios de IA responsable.
Postura del Pentágono y Acciones PotencialesEl DoD argumenta que las empresas privadas no deben dictar aplicaciones militares de tecnología que han vendido al gobierno, comparable a cómo usa hardware de firmas como Boeing o Lockheed Martin sin vetos externos. El Secretario de Defensa Pete Hegseth ha sido vocal, afirmando que el ejército no tolerará modelos de IA que "no permitan luchar guerras". Opciones reportadas incluyen:
  1. Terminar el Contrato: Cambiar a proveedores más complacientes. El 25 de febrero de 2026, xAI anunció un acuerdo permitiendo que Grok opere en sistemas clasificados del DoD sin restricciones, rompiendo el monopolio de Anthropic. Google y OpenAI también están en negociaciones y parecen dispuestos a cumplir el estándar de "todos los propósitos legales".
  2. Etiquetar como Riesgo en la Cadena de Suministro: Esta medida severa, típicamente usada contra entidades extranjeras como Huawei, prohibiría a contratistas de EE.UU. trabajar con Anthropic, devastando su negocio (incluyendo inversores como Amazon y Google). Hegseth reportedly convocó al CEO de Anthropic, Dario Amodei, para una reunión de alto riesgo, amenazando con esto si no se hacen concesiones antes de una fecha límite (inicialmente el 27 de febrero de 2026).
  3. Invocar la Defense Production Act (DPA): Esta ley de 1950, usada durante el COVID-19 para suministros médicos, podría obligar a Anthropic a proporcionar acceso sin restricciones a la IA durante "emergencias". Aunque menos probable por obstáculos legales, se ha mencionado como opción nuclear para anular resistencia corporativa.
Posición de AnthropicAnthropic se posiciona como líder en IA segura, argumentando que el uso militar sin restricciones podría llevar a resultados poco fiables o irresponsables, como escenarios distópicos en vigilancia o guerra. Han ofrecido compromisos, como permitir IA para defensa de misiles, pero trazan líneas en sistemas letales totalmente autónomos o espionaje doméstico. Críticos, incluyendo algunos usuarios de X, elogian esta postura ética pero advierten que arriesga alienar al gobierno y perder cuota de mercado.Implicaciones Más AmpliasEsta disputa subraya un cambio hacia priorizar la utilidad militar sobre la ética corporativa en el desarrollo de IA. La entrada rápida de xAI con Grok lo posiciona como alternativa flexible, potencialmente acelerando la integración de IA en inteligencia, armas y operaciones. Sin embargo, plantea preocupaciones sobre poder descontrolado: lo que es "legal" puede evolucionar, y eliminar salvaguardas podría habilitar abusos. Interesados como Palantir están en medio, mientras la industria tech observa de cerca: el cumplimiento podría significar miles de millones en contratos, pero ¿a qué costo para la confianza pública?El texto que proporcionaste parece cortarse abruptamente ("relacion con revelaciones de la ncfcccd c+ jcp"), que podría referirse a "relación con revelaciones de la NSA" o similares divulgaciones de inteligencia (quizás vinculadas al National Counterintelligence and Security Center o Joint Cyber Defense Collaborative). Si es así, informes ligan la operación Maduro a revelaciones más amplias de inteligencia de EE.UU