El Pentágono declara a Anthropic, gigante de la IA, un riesgo para la seguridad nacional
El Pentágono ha designado a la empresa de inteligencia artificial Anthropic como un “riesgo para la seguridad nacional en la cadena de suministro”, una decisión que prohíbe al ejército y a sus contratistas utilizar sus servicios de IA. La medida llega tras meses de negociaciones tensas sobre los límites que la compañía quería imponer al uso militar de su tecnología, como el modelo Claude.
El centro del conflicto es una pregunta clave: ¿puede una empresa de IA decidir cómo el ejército utiliza su tecnología? Durante meses, el Pentágono negoció nuevos términos con Anthropic y otras líderes del sector para expandir el uso militar de la IA. Mientras el Departamento de Defensa buscaba autorización para “cualquier uso lícito”, el CEO de Anthropic, Dario Amodei, insistía en obtener garantías de que su IA no se usaría para armas autónomas letales ni para vigilancia masiva a nivel nacional.
Una postura inflexible desde el gobierno
La respuesta del gobierno fue contundente. Un alto funcionario del Departamento de Defensa confirmó que la decisión tenía efecto inmediato y defendió el principio fundamental de que “el ejército debe poder usar la tecnología para todos los propósitos lícitos”. Según sus palabras, no permitirán que “un proveedor se inserte en la cadena de mando restringiendo el uso lícito de una capacidad crítica y ponga en riesgo a nuestros combatientes”.
El Secretario de Defensa, Pete Hegseth, ya había adelantado la medida en una publicación en la red social X, donde calificó la postura de Anthropic como una “clase magistral de arrogancia y traición” y un “caso de manual sobre cómo no hacer negocios con el Gobierno de los Estados Unidos”. En su mensaje, fue claro: “Nuestra posición nunca ha vacilado y nunca vacilará: el Departamento de Guerra debe tener acceso total y sin restricciones a los modelos de Anthropic para cada propósito LEGAL en defensa de la República”.
El presidente Donald Trump también intervino, afirmando en su red Truth Social que actuaría para prohibir a Anthropic en otras agencias federales. “Los locos de izquierda en Anthropic han cometido un ERROR DESASTROSO al intentar INTIMIDAR al Departamento de Guerra y forzarlos a obedecer sus Términos de Servicio en lugar de nuestra Constitución”, escribió.
La respuesta de Anthropic: de los tribunales a la autorregulación
Dario Amodei, CEO de Anthropic, confirmó la designación en un comunicado y anunció que la empresa la disputará. “No creemos que esta acción sea legalmente sólida y no vemos otra opción que impugnarla en los tribunales”, afirmó. Amodei añadió que Anthropic y el gobierno comparten el compromiso de promover la seguridad nacional de EE. UU., y que sus decisiones futuras se basarán en esa premisa común.
Reforzando su compromiso con un despliegue responsable, Anthropic está buscando activamente un especialista en políticas de armas químicas y explosivos. El objetivo no es desarrollar armamento, sino fortalecer las barreras de seguridad internas y evaluar cómo sus sistemas de IA manejan información sensible, una medida que subraya su filosofía de evitar el uso indebido de su tecnología.
En el mismo comunicado, Amodei aclaró que la prohibición no se aplica a contratos con proveedores militares para fines no relacionados con la defensa. Anthropic tiene acuerdos comerciales con grandes empresas tecnológicas como Amazon, muchas de las cuales también son importantes contratistas del Pentágono.
El ascenso de los rivales y la paradoja de Palantir
Mientras Anthropic quedaba fuera, sus competidores aprovecharon la oportunidad. Horas después del anuncio de Hegseth, el CEO de OpenAI, Sam Altman, comunicó un nuevo acuerdo con el Pentágono para usar los servicios de su compañía en entornos clasificados. Del mismo modo, xAI de Elon Musk y su sistema Grok también cerraron un trato para ser utilizados en las redes clasificadas del ejército.
En paralelo, el Pentágono está posicionando a Palantir como su principal proveedor de sistemas de IA. Su modelo Maven, que ya se usa para analizar datos del campo de batalla e identificar objetivos, será designado como un "programa de registro", una categoría que facilita su adopción masiva en todas las ramas militares. Sin embargo, esta decisión esconde una complicación notable: el propio sistema Maven de Palantir depende de la tecnología Claude de Anthropic para realizar sus funciones de análisis.
El plan para resolver esta dependencia ya está en marcha. Se espera que los modelos de OpenAI reemplacen a los de Anthropic en las redes militares clasificadas en un plazo de seis meses, coincidiendo con el periodo de transición que el propio Pentágono ha establecido.
Críticas y advertencias de la industria tecnológica
La decisión ha provocado una fuerte reacción en el sector tecnológico. Muchos inversores temen que, al apuntar a una de las compañías de IA más grandes y exitosas de Estados Unidos, el Departamento de Defensa esté sentando un precedente peligroso que podría ahuyentar la inversión y frenar la innovación.
Un influyente grupo de defensa tecnológica, que incluye a miembros como Apple, envió una carta a Hegseth pidiéndole que no aplicara oficialmente la etiqueta de riesgo.
“Estamos tratando a una compañía estadounidense de IA peor de lo que tratamos a una compañía de IA controlada por el Partido Comunista Chino”, señaló Michael Sobolik, experto en IA del Hudson Institute. “El gobierno de EE. UU. se arriesga a cortar las piernas de una de nuestras mejores compañías de IA en los primeros años de esta carrera”.
Tim Fist, del think tank Institute for Progress, coincidió en que la designación es contraproducente. “La designación de riesgo en la cadena de suministro, normalmente utilizada contra adversarios extranjeros, está perjudicando a una de las principales empresas de IA de Estados Unidos y haciendo que otras compañías duden mucho más en trabajar con el gobierno federal”, comentó.
¿Qué sigue ahora?
Varios observadores legales han sugerido que la designación probablemente no se sostendría en un tribunal y que su propósito principal es advertir a otras empresas para que se alineen con los términos del Pentágono.
Hasta ahora, el Pentágono ya utilizaba los sistemas Claude de Anthropic a través de un acuerdo con Palantir, supuestamente para ayudar a las fuerzas a evaluar inteligencia e identificar objetivos en operaciones militares relacionadas con Irán. La compañía había cerrado su primer acuerdo con Palantir en 2024 y se le había adjudicado otro contrato de 200 millones de dólares en julio.
En su anuncio, Hegseth indicó que Anthropic “continuará proporcionando sus servicios al Departamento de Guerra por un período no mayor a seis meses para permitir una transición fluida a un servicio mejor y más patriótico”.