No hay trincheras ni soldados visibles, sino algoritmos que observan, clasifican y atacan. Los drones se han convertido en los nuevos espías del siglo XXI: máquinas que deciden desde el cielo quién representa una amenaza y quién no.
La distancia ya no protege. En 2025, una patrulla remota lanza desde un hangar en Europa un avión no tripulado que, semanas después, produce imágenes que deciden un ataque en el Sahel. Minutos después, otro sistema autónomo en el Mar Negro identifica una embarcación rusa por sus firmas térmicas, la clasifica como “amenaza logística” y lanza un dron kamikaze. No hay combates cuerpo a cuerpo, no hay soldados implicados directamente en el disparo. Lo que hay son algoritmos, sensores y máquinas conectadas.
Este artículo propone que estamos ante una nueva frontera del espionaje y la guerra encubierta: una guerra invisible que combina drones, inteligencia artificial (IA) y redes de vigilancia globales. Y que ese salto tecnológico está generando —más allá del horror cotidiano— una transformación estructural de la inteligencia, la doctrina militar y el poder estatal.
Del espía humano a la red de drones
La idea de guerra remota no es nueva. Ya en 1849 el ejército austríaco lanzó globos incendiarios sin tripulación sobre Venecia como bombas aéreas primitivas.En el siglo XX, los vehículos aéreos no tripulados (UAV) se desplegaron a gran escala en conflictos como la guerra de Vietnam para reconocimiento.
El verdadero salto viene con el siglo XXI. Según Colin Gray y otros teóricos de la revolución en los asuntos militares, se está produciendo un cambio discontinuo en la forma de librar la guerra: nuevas tecnologías, nuevas doctrinas, nuevos actores. Los drones, los satélites de vigilancia, las redes de datos y la IA forman parte de esa mutación.
La continuidad es útil para reconocer que este fenómeno no apareció de la nada, pero —y aquí está la clave— la escalabilidad, el grado de autonomía y la interconexión global de los sistemas lo convierte en algo cualitativamente distinto.
Drones autónomos, algoritmos de decisión y el nuevo espionaje
Los estudios recientes muestran que los “enjambres” de UAVs, los algoritmos de control multi-agente y la autonomía en tiempo real están alcanzando niveles que antes sólo se veían en la ciencia ficción. Una revisión de 2025 sobre UAV swarms señala que la colaboración autónoma entre múltiples vehículos aéreos es ya un componente operativo en varios contextos. Otro estudio identifica que aunque aún existen brechas para el aprendizaje por refuerzo (RL) aplicado en el campo de batalla, el camino hacia misiones autónomas es claro.
En este marco, el dron deja de ser simplemente un avión no tripulado para observar y pasa a combinar tres roles simultáneos: vigilancia, clasificación de objetivos y ataque. Un informe del 2025 analiza cómo los sistemas de IA aplicados al control de drones permiten “comportamiento autónomo en tiempo real, decisiones tácticas y ataque automático”.
En la guerra de Ucrania aparece la exportación turca del Bayraktar TB2, utilizado por Azerbaiyán en Nagorno-Karabaj y por Ucrania contra Rusia.
Espionaje redefinido desde el secreto humano al dato omnipresente
El espionaje clásico implicaba agentes humanos infiltrándose, escuchas telefónicas, interceptación de letras. Hoy, el “espía” puede ser un enjambre de drones equipados con cámaras térmicas, sensores de RF, IA que detecta patrones de movimiento, que analiza audios y vídeos en tiempo real, y decide qué imágenes enviar a un centro de inteligencia.
Este cambio entraña importantes implicancias:
- La vigilancia se vuelve ubicua: el sensor aéreo puede estar permanentemente sobre zonas de interés, sin riesgo humano.
- Procesamiento de datos en tiempo real: algoritmos de clasificación, aprendizaje automático y “detección de anomalías” hacen que la inteligencia funcione como predicción, no solo como recolección. Por ejemplo, un sistema de reconocimiento visual de drones identifica personas violentas en zonas urbanas mediante IA.
- La tercerización del espionaje al sector privado: empresas que desarrollan hardware de drones y software de IA entran en la cadena de inteligencia militar, modificando quién hace qué, cómo y con qué responsabilidad.
Dilemas éticos, legales y geopolíticos
El principal dilema de la guerra algorítmica no es solo técnico, sino moral. ¿Quién asume la responsabilidad cuando una decisión de ataque o vigilancia proviene de un algoritmo? La reducción de la intervención humana en los sistemas de armas autónomas plantea un desafío profundo al derecho internacional humanitario.
Sin embargo, el problema no es la tecnología en sí, sino la manera en que los Estados la integran dentro de sus marcos éticos y jurídicos. Las potencias democráticas —en particular Israel y Estados Unidos— han avanzado en protocolos de control y revisión ética antes de cada despliegue de drones autónomos.
El uso intensivo de drones con inteligencia artificial crea una asimetría tecnológica que redefine el concepto de soberanía. Estados con grandes capacidades tecnológicas pueden operar en “zonas grises” sin declarar formalmente la guerra.
En regiones como el Mar Rojo, el Cáucaso o el Sahel, esta práctica ha permitido a actores con recursos limitados —como Irán o Rusia— desafiar a potencias aliadas de Occidente a bajo costo. Un informe del RAND Corporation advierte que la proliferación de drones de bajo costo ha permitido que grupos insurgentes y paramilitares “modifiquen drones comerciales para fines militares, reduciendo el umbral del conflicto armado”.
Frente a este panorama, la coordinación entre inteligencia estatal y privada se vuelve crucial. Empresas como Palantir han desarrollado soluciones predictivas para el análisis de inteligencia táctica en tiempo real, lo que refuerza la capacidad de respuesta de las democracias liberales ante amenazas híbridas.
Israel constituye uno de los casos paradigmáticos de ética aplicada a la guerra moderna. Lejos de la narrativa reduccionista que acusa indiscriminación, el país ha desarrollado protocolos de decisión algorítmica estrictamente supervisados. El Jerusalem Center for Public Affairs explica que “las Fuerzas de Defensa de Israel emplean drones con base en un marco ético de proporcionalidad, precaución y diferenciación entre combatientes y civiles”, y que “cada operación con drones es aprobada por oficiales jurídicos militares especializados”.
Este modelo contrasta con el uso opaco que otros actores regionales hacen de la IA militar, especialmente en contextos donde no existen controles judiciales ni parlamentos activos. Israel, en cambio, sostiene una doctrina de transparencia y rendición de cuentas internas, que busca equilibrar la defensa nacional con la protección de los derechos civiles, incluso en entornos urbanos de alta densidad como Gaza, Judea y Samaria como fuera de sus fronteras.
La guerra invisible está redefiniendo nuestra percepción del conflicto. Lo que antes era un acto excepcional —el uso de fuerza letal— se ha vuelto rutinario y distante. Los ataques de drones, la vigilancia satelital y los sistemas predictivos de IA transforman el campo de batalla en una red interconectada de decisiones automáticas.
Este fenómeno implica riesgos profundos: la normalización del Estado de Guerra y la pérdida del vínculo humano en la toma de decisiones es cada vez menor. No obstante, también abre nuevas oportunidades para reducir víctimas colaterales cuando los algoritmos están correctamente supervisados, como demuestran los informes técnicos del SpringerOpen Journal of Engineering and Applied Science, que señalan que los “sistemas híbridos de decisión humana y algorítmica pueden mejorar la precisión táctica y minimizar errores colaterales”.
El campo de batalla es el dato
El patrón es que el dron observa, decide y actúa, pero lo que subyace es el dato: firmas térmicas, transmisiones interceptadas, movimiento de personas, patrones logísticos. La inteligencia militar ya no busca sólo información: busca anticipar comportamiento. Y el dron-algoritmo se convierte en el protagonista de ese proceso.
Para los estados latinoamericanos —y para la región del Cono Sur— este cambio implica que el terreno de la soberanía y del control no es sólo físico (fronteras, patrullas) sino también digital: quién vigila, quien procesa los datos, quién conecta los sensores, determina buena parte de la nueva geopolítica.
La guerra invisible quizá no se ve, pero se siente y aunque no haya soldados con fusil frente a uno, el zumbido de un dron sobre el horizonte puede marcar la frontera entre estar observado y estar eliminado.
Por Max L. Van Hauvart Duart.
