En lo que representa un hito sin precedentes en la historia bélica, el ejército de los Estados Unidos ha desplegado la tecnología de Inteligencia Artificial (IA) más avanzada jamás utilizada en un conflicto armado. Durante las primeras 24 horas de su ofensiva contra Irán, las fuerzas estadounidenses lograron atacar 1.000 objetivos, una operación coordinada por algoritmos que procesan datos a una velocidad que supera con creces la capacidad humana.
Sin embargo, este avance tecnológico llega en medio de una tormenta política y un giro diplomático radical. Apenas unas horas antes del inicio del bombardeo, el gobierno de los Estados Unidos ejecutó un movimiento que cambió las reglas del juego para Silicon Valley: la administración Trump colocó a Anthropic en una lista negra de seguridad nacional de gran alcance.
El éxito logístico de la campaña en Irán se debe a la integración del sistema Maven, desarrollado por la firma de minería de datos Palantir, con la IA generativa Claude. Juntos, estos sistemas digieren volúmenes masivos de información clasificada proveniente de satélites y vigilancia en tiempo real para emitir coordenadas precisas y priorizar objetivos.
Lo que antes requería semanas de planificación por parte de cientos de oficiales, ahora se realiza en minutos. Según un estudio de la Universidad de Georgetown sobre el 18.º Cuerpo Aerotransportado, esta tecnología permitió que una unidad de artillería realizara el trabajo de 2.000 efectivos con un equipo de tan solo 20 personas. «El cambio de paradigma clave es que la IA permite al ejército desarrollar paquetes de objetivos a la velocidad de las máquinas, en lugar de a la velocidad humana», señaló Paul Scharre, experto del Centro para una Nueva Seguridad Estadounidense.
De la colaboración a la «Lista Negra»
A pesar de su eficacia en el campo de batalla, la relación entre Anthropic y la Casa Blanca ha pasado del éxito operativo al repudio absoluto. El presidente Trump, a través de su red Truth Social, calificó a los directivos de Anthropic como «locos de izquierda», acusándolos de intentar imponer sus términos de servicio, que limitan el uso de la IA en vigilancia doméstica y armas autónomas, por encima de la Constitución.
La respuesta del Ejecutivo fue contundente y con efecto inmediato. Al incluir a la empresa en la lista negra de seguridad nacional, el gobierno no solo ordenó a todas las agencias federales dejar de usar su tecnología, sino que impuso un cerco comercial: se prohibió que cualquier otra empresa que realice negocios con el ejército mantenga vínculos o trabaje con Anthropic.
El secretario de Guerra, Pete Hegseth, reforzó esta postura al declarar a la firma como un «riesgo para la cadena de suministro». Esta medida busca aislar por completo a la tecnológica del ecosistema de defensa estadounidense.
Este vacío ya está siendo disputado. xAI, la compañía de Elon Musk, y OpenAI, creadora de ChatGPT, firmaron acuerdos la semana pasada para trabajar en sistemas gubernamentales clasificados. Este movimiento sugiere una reconfiguración agresiva del complejo industrial-militar, donde la lealtad política y la alineación con la seguridad nacional son tan vitales como el código mismo.
Riesgos éticos y el factor humano
No todo es optimismo tecnológico. Expertos como Scharre advierten que la dependencia de la IA generativa en decisiones de vida o muerte es peligrosa. «La IA se equivoca… Necesitamos que los humanos verifiquen el resultado», advirtió, subrayando el riesgo de ataques erróneos bajo la presión de la velocidad automatizada.
Mientras el conflicto en Irán continúa, la pregunta que queda en el aire no es si la IA dominará la guerra, sino quién controlará el código detrás de las armas del futuro. Por ahora, el Pentágono sigue utilizando a Claude para ganar una guerra, mientras el gobierno de su propio país lo tacha de amenaza nacional.
