El gobierno de EEUU dejará de usar la IA de Anthropic en sus distintas agencias tras la fallida negociación con el Pentágono

Última actualización: 02/03/2026

eeuu dejara de usar la ia de anthropic

El Gobierno de EEUU dejará de usar la IA de Anthropic y abre la puerta a la adopción de tecnología de OpenAI tras una serie de eventos que escalaron desde negociaciones interrumpidas con el Departamento de Defensa hasta una orden presidencial que afecta a agencias federales y contratos clave. La decisión representa un giro significativo en la relación entre las autoridades estadounidenses y dos de las principales empresas de inteligencia artificial, con implicaciones para la seguridad nacional, la política de adquisiciones públicas y la competencia en el sector tecnológico.

Disputa entre Anthropic y el Gobierno: de la negociación al retiro de productos

El retiro de la tecnología de Anthropic se produce después de intensos desacuerdos con el Departamento de Defensa de Estados Unidos sobre el uso de sistemas de IA en aplicaciones militares sin restricciones. Anthropic, conocida por su enfoque en seguridad y usos éticos de la IA, rechazó adaptar sus modelos para permitir usos que el Pentágono consideraba necesarios, incluidos despliegues en escenarios clasificados sin limitaciones impuestas por el proveedor.

Frente a esta negativa, el secretario de Defensa, Pete Hegseth, amenazó con designar a Anthropic como un “riesgo para la cadena de suministro”, una clasificación poco habitual para empresas tecnológicas nacionales que normalmente se reserva para proveedores considerados vinculados a adversarios extranjeros.

El presidente Donald Trump respaldó esta posición, ordenando a todas las agencias federales que cesen el uso inmediato de la tecnología de Anthropic, aunque estableció un periodo de transición de seis meses para permitir la retirada gradual de sistemas ya implementados, incluidas aplicaciones en defensa y otras entidades gubernamentales.

Este mandato afecta sistemas basados en el modelo de lenguaje Claude y otras herramientas de IA desarrolladas por Anthropic que estaban en uso en departamentos como el Tesoro de Estados Unidos y la Federal Housing Finance Agency (FHFA), marcando un rechazo sin precedentes contra este proveedor en la esfera pública.

Razones de que el gobierno de EEUU dejará de usar la IA de Anthropic y posición del Departamento de Defensa

La raíz del cambio radica en la disputa sobre los términos de uso de IA en contextos militares y de seguridad nacional. El Pentágono exigió que cualquier tecnología de IA pueda ser usada sin las restricciones éticas que Anthropic insistía en mantener, como prohibiciones explícitas sobre vigilancia masiva de ciudadanos estadounidenses y la operación de sistemas de armas autónomos sin supervisión humana.

Anthropic defendió que dichas restricciones eran esenciales para garantizar el uso seguro y ético de sus sistemas, una postura que, según sus ejecutivos, fue objeto de fricción con los requisitos operativos del Departamento de Defensa. La negativa a renunciar a estos salvaguardas llevó a que el Gobierno considerara que la compañía no podía satisfacer las necesidades de seguridad nacional, desencadenando la orden de desuso de sus productos.

Transición a OpenAI y nuevos contratos gubernamentales

En paralelo a la decisión de apartar a Anthropic, OpenAI anunció un acuerdo para suministrar tecnología de IA al Departamento de Defensa en redes clasificadas, un pacto que se concretó rápidamente tras la ruptura con Anthropic. Este movimiento coloca a OpenAI en una posición privilegiada para ofrecer soluciones de inteligencia artificial en un entorno sensible para la seguridad nacional.

La empresa liderada por Sam Altman resaltó que su acuerdo incluye protecciones y restricciones diseñadas para evitar usos no deseados de la tecnología, como la vigilancia interna masiva o el empleo autónomo de fuerza letal, aunque expertos críticos han señalado que algunos términos del contrato podrían permitir interpretaciones amplias.

La estrategia del Gobierno estadounidense de favorecer a OpenAI no solo responde a la disputa con Anthropic, sino que también refleja la intención de asegurar que los proveedores de IA que trabajan con agencias federales acepten plenamente los términos de uso deseados por los responsables de seguridad y defensa.

Impacto en contratos gubernamentales y tensión en el sector tecnológico

La orden de retirada de Anthropic implica la pérdida de contratos importantes, entre ellos compromisos valorados en decenas de millones de dólares que la compañía había obtenido con el Departamento de Defensa y otras agencias. También limita la participación de Anthropic en futuras adjudicaciones de servicios relacionados con IA en el ámbito federal.

Varios ejecutivos y profesionales del sector tecnológico han expresado su preocupación por esta medida, calificándola de riesgo para la innovación, con una carta abierta enviada al Gobierno instando a reconsiderar la clasificación de Anthropic como un riesgo para la seguridad nacional.

Además, algunos legisladores y expertos han advertido que la decisión podría tener efectos adversos en la preparación tecnológica de agencias federales y en la competitividad global de Estados Unidos en el desarrollo de IA avanzada.

Reacciones y perspectivas de Anthropic

Anthropic ha anunciado su intención de impugnar legalmente la designación como riesgo para la cadena de suministro, argumentando que la etiqueta no está fundamentada y que su postura sobre ética de la IA no debería excluirla del mercado federal.

Los directivos de la compañía han defendido que sus salvaguardas, diseñadas para asegurar usos responsables de la tecnología, son consistentes con valores compartidos y que, si bien pueden limitar la adopción en ciertos escenarios militares, no deberían privar al Gobierno de acceso a sistemas de IA sofisticados.

Consecuencias para la industria de IA

La retirada de Anthropic y la transición hacia OpenAI como proveedor preferente de IA para agencias federales consolidan una tendencia en la que las decisiones gubernamentales pueden tener un impacto inmediato y profundo en la orientación de la industria tecnológica. La medida podría influir en cómo otras empresas estructuran sus políticas de seguridad y ética para trabajar con el sector público, especialmente en áreas sensibles como defensa y seguridad nacional.

Este episodio también subraya la tensión entre principios éticos de diseño de IA y las exigencias operativas de gobiernos que requieren flexibilidad total para usos militares o de seguridad, un conflicto que es probable que se mantenga en el centro de los debates sobre regulación y adopción de inteligencia artificial avanzada en los próximos años.


La decisión de que el Gobierno de EE.UU. dejará de usar la IA de Anthropic y se incline hacia OpenAI como proveedor de servicios de inteligencia artificial representa un punto de inflexión en la relación entre el sector público y las empresas de IA. El episodio refleja cómo cuestiones de política de uso, ética y seguridad nacional pueden determinar la dirección de contratos gubernamentales y la posición de liderazgo de compañías tecnológicas en un mercado cada vez más estratégico.

Fuentes

Esta noticia se basa en información de fuentes confiables:

  • Fuente original: Reuters
  • Verificación: Contenido verificado y ampliado.
Resumen de privacidad

Este sitio utiliza cookies para que podamos ofrecer una mejor experiencia de usuario . La información de las cookies  realiza funciones tales como reconocer a un usuario cuando vuelve a ingresar a nuestra web, y ayuda a nuestro equipo a entender sus preferencias.