Estados Unidos incrementa el uso de la inteligencia artificial en la guerra: El Pentágono se apoyó en Anthropic para el ataque en Irán

El Pentágono está en disputa con Anthropic por el uso de la IA sin límites en la guerra.
El Pentágono, en Washington. Crédito: AFP

La utilización de inteligencia artificial en operaciones militares volvió a encender el debate en Washington y Silicon Valley tras revelarse que el ejército estadounidense empleó el modelo Claude, desarrollado por Anthropic, durante el reciente ataque contra Irán y que continúa utilizándolo en tareas vinculadas al conflicto.

Dos fuentes familiarizadas con el uso de IA por parte del Pentágono confirmaron que el modelo fue implementado el fin de semana pasado. El uso fue reportado inicialmente por The Wall Street Journal y luego ampliado por otros medios estadounidenses.

Aunque el Departamento de Defensa no ha detallado cómo se integra Claude en las operaciones, el director de tecnología del Pentágono, Emil Michael, aseguró en entrevista con CBS News que la herramienta se emplea para “sintetizar documentos y hacer que la logística y las cadenas de suministro sean más eficientes”, entre otras funciones administrativas.

Sin embargo, la revelación llega en medio de una fuerte disputa institucional. El presidente Donald Trump anunció el viernes que ordenará a las agencias federales dejar de utilizar tecnología de Anthropic, otorgando un plazo de seis meses para eliminarla progresivamente. En paralelo, el secretario de Defensa, Pete Hegseth, designó a la compañía como un “riesgo para la cadena de suministro”, una figura legal que podría restringir o excluir a proveedores de contratos de defensa.

Tensiones por “líneas rojas”

El conflicto se originó tras semanas de negociaciones sobre los límites de uso de la IA. Anthropic presionó para establecer “líneas rojas” que impidan explícitamente que Claude sea utilizado para vigilancia masiva de ciudadanos estadounidenses o para alimentar sistemas de armas totalmente autónomas.

El CEO de la compañía, Dario Amodei, defendió esa postura en declaraciones públicas: “Disentir del gobierno es lo más típico de Estados Unidos. Y somos patriotas. En todo lo que hemos hecho aquí, hemos defendido los valores de este país”. Según Amodei, cruzar esas líneas sería “contrario a los valores estadounidenses”.

El Pentágono, por su parte, exigió la posibilidad de utilizar Claude para “todos los fines legales” sin excepciones específicas. Funcionarios del Departamento de Defensa argumentaron que ya existen leyes que prohíben la vigilancia masiva doméstica y que las políticas internas restringen el uso de armas completamente autónomas.

“En algún nivel, tienes que confiar en que tus militares harán lo correcto”, afirmó Michael en su entrevista.

Impacto en Silicon Valley

La designación de “riesgo para la cadena de suministro” generó conmoción en la industria tecnológica. Hegseth escribió en redes sociales que “ningún contratista, proveedor o socio que haga negocios con el ejército de los Estados Unidos podrá realizar ninguna actividad comercial con Anthropic”.

La compañía respondió que impugnará la medida en tribunales y advirtió que sentaría “un precedente peligroso para cualquier empresa estadounidense que negocie con el gobierno”. Además, sostuvo que no recibió comunicación formal directa del Departamento de Defensa o la Casa Blanca.

Expertos legales señalaron que este tipo de designaciones no suelen entrar en vigor de inmediato y requieren evaluaciones de riesgo y notificación al Congreso. No obstante, la incertidumbre ya afecta a grandes socios tecnológicos que trabajan con el Pentágono y colaboran con Anthropic, entre ellos Amazon, Google y Nvidia.

Mientras tanto, el ejército israelí no ha confirmado si también utiliza Claude en el actual conflicto. Las Fuerzas de Defensa de Israel sí han reconocido previamente el uso de inteligencia artificial en sus operaciones, incluido su sistema de objetivos “Lavender”, empleado durante la guerra en Gaza.