Radar Austral

Algoritmos de la influencia: desinformación algorítmica y operaciones de inteligencia híbrida

En el nuevo teatro de operaciones de la política y la seguridad global, los algoritmos ya no solo seleccionan qué vemos, sino que algunas veces también deciden qué debemos creer. Esta nota explora cómo los servicios de inteligencia integran la IA, las redes sociales y la guerra de información para intervenir en procesos democráticos. Por Max L. Van Hauvart Duart.

Publicado el 6 de noviembre de 2025 por Radar Austral
Algoritmos de la influencia: desinformación algorítmica y operaciones de inteligencia híbrida

La lógica del espionaje, la vigilancia y la guerra de información ha cambiado totalmente en las últimas dos décadas. Antes eran operaciones clandestinas —intercepciones telefónicas, infiltraciones humanas, descifrado de códigos— pero ahora convive con el uso de algoritmos, redes sociales, perfiles de usuarios, bots y deepfakes. Dentro de la nueva realidad, la noción de “inteligencia” se expande más allá de sus fronteras: no se trata de recopilar datos, sino también de manipular narrativas, configurar audiencias algorítmicamente y activar procesos de influencia automatizada que pueden alterar resultados electorales, polarizar sociedades o socavar la confianza en las instituciones.

Todo esto puede enmarcarse bajo el concepto de “guerra híbrida” u “operaciones de influencia híbridas”, donde los conflictos no se libran únicamente en el campo físico sino en el espacio de la información y la cognición. Como señala un análisis reciente de la OTAN: la “invasión algorítmica” de los sistemas de información plantea una amenaza a la seguridad colectiva del flanco oriental europeo.

En América Latina, este tipo de dinámicas no están exentas para nada: los servicios de inteligencia, los actores políticos y los gigantes tecnológicos se entrecruzan en un escenario donde la frontera entre seguridad, propaganda y tecnología es más difusa que nunca.

Genealogía histórica: del “active measures” al algoritmo

Es necesario conectar el pasado para comprender el presente y remontarse a la historia de la inteligencia de influencia. Durante la Guerra Fría, la KGB soviética y sus «medidas activas» (active measures) desplegaron campañas de desinformación, agentes de influencia y operaciones secretas para debilitar a Occidente. Un libro clásico lo documenta: Dezinformatsia: Active Measures in Soviet Strategy (1984), explica cómo se manipulaban personalidades, medios y narrativas.

Las operaciones funcionaban con métodos manuales: publicar artículos falsos, financiar grupos satélites, infiltrar conferencias, generar rumores. Hoy, la infraestructura técnica permite escalar esas tácticas mil veces: los algoritmos de recomendación de redes sociales, los perfiles de usuarios, los bots y la IA permiten no solo difundir, sino dirigir y segmentar mensajes de influencia hacia audiencias específicas. En este sentido, el paradigma ha pasado del cifrado al algoritmo.

Un estudio reciente lo sintetiza así: «el desplazamiento desde la manipulación del contenido visible (mensajes y narrativas) hacia la manipulación de las estructuras invisibles que lo producen (datos, algoritmos y redes)» es ya una característica clave de la guerra digital. Así, lo que hace treinta años era “comunicación de influencia” hoy es “configuración algorítmica de audiencias”.

¿Qué entendemos por “desinformación algorítmica” y “operaciones de inteligencia híbrida”?

Algunas definiciones a tener en cuenta a la hora de abordar este tema son:

  • Desinformación: difusión intencional de información falsa o engañosa con el propósito de manipular, influenciar o causar un efecto adverso.
  • Algorítmica: porque el proceso no solo depende del emisor, sino del sistema que selecciona, refuerza y amplifica los mensajes (recomendación, segmentación, micro-targeting).
  • Operaciones de inteligencia híbrida: combinan técnicas de inteligencia tradicional (espionaje, contrainteligencia) con tácticas de ciberseguridad, guerra informacional, propaganda digital, manipulación de datos y perfiles de usuarios.

¿Cómo funcionan en la práctica?

  • Recopilación masiva de datos de usuarios: intereses, amistades, comportamientos de consumo, tiempos de conexión.
  • Segmentación basada en perfiles: identificación de audiencias vulnerables —género, edad, ubicación, tendencias políticas— que puedan ser susceptibles a mensajes de influencia.
  • Amplificación algorítmica: uso de bots, cuentas falsas, redes de apoyo, para que el mensaje sea visible, repetido, reforzado y parezca respaldo social.
  • Optimización de contenido: mensajes adaptados para cada audiencia, usando IA para probar variaciones, medir respuestas y ajustar.
  • Operación combinada: uso de medios tradicionales, redes sociales, ataques de reputación, deepfakes, todo coordinado para crear un ambiente cognitivo hostil, confuso o polarizado.

Un trabajo reciente titulado Algorithmic Warfare: Next Generation Hybrid Warfare Strategy sintetiza este cuadro: «el uso indebido de los algoritmos de recomendación ha sido reconvertido en una herramienta para la acción militar y para obtener ventajas estratégicas.»

Y viene a nosotros la pregunta: ¿por qué resulta especialmente tan peligrosa?

Los algoritmos permiten llegar a miles o incluso millones de personas de manera simultánea, superando ampliamente los métodos tradicionales de difusión. La IA introduce además automatización y velocidad: posibilita generar múltiples variaciones de mensajes, probarlos, ajustarlos y volver a desplegarlos sin necesidad de intervención humana constante. Al mismo tiempo, estas operaciones suelen operar mediante cuentas falsas, redes de amplificación y sin marcas visibles de autoría estatal, lo que dificulta su rastreo. Esto contribuye a la fragmentación del espacio público, ya que distintas audiencias reciben realidades distintas, socavando consensos sociales básicos.

Como resultado, se abre un delicado punto de intersección entre seguridad nacional, derechos civiles y desarrollo tecnológico: la utilización de estas herramientas para intervenir en procesos electorales o manipular políticamente a la ciudadanía representa un riesgo directo para la democracia.

Casos paradigmáticos

El término Firehose of Falsehood describe la estrategia rusa de inundar múltiples canales con mensajes rápidos, repetitivos, inconexos, sin compromiso con la verdad, con el objetivo de confundir al adversario. Estudios muestran que esta estrategia no solo representa propaganda, sino una operación de inteligencia híbrida: manipulación sistemática del entorno de información, que acompaña operaciones cibernéticas y presión política.

Una reciente investigación de Aleksandr Shaman para la ESCP International Politics Society sobre Inteligencia Artificial, señala que las operaciones actuales ya no se limitan a inundar con mensajes, sino que emplean IA generativa para crear contenido, personalizar narrativas, segmentar audiencias y vulnerar la resistencia de la verificación tradicional.

Por ejemplo, en el conflicto entre Rusia y Ucrania, se observa un uso intensivo de redes sociales, bots y algoritmos para manipular percepciones tanto dentro como fuera del país. Diversos trabajos señalan que hybrid warfare scripts” incluyen micro-targeting de usuarios, bots con perfiles localizados, y contenidos adaptados a la lógica de las plataformas.

Aunque con menos documentación pública que Europa o Estados Unidos, Latinoamérica no está al margen. Países de la región han visto campañas de desinformación vinculadas a actores estatales, privadas o partidos políticos, muchas veces con vínculos indirectos a servicios de inteligencia o estructuras de seguridad. Analistas señalan que la combinación de débil regulación, bajo nivel de alfabetización digital y alta penetración de redes sociales hace a la región vulnerable. Además, el uso de algoritmos y micro-targeting es cada vez más habitual en campañas electorales, lo que abre la puerta a operaciones de influencia híbrida locales o transnacionales.

Actores, alianzas y recursos tecnológicos

Los servicios de inteligencia tradicionales (militares, de seguridad interna, de contrainteligencia) asumen un rol clave: monitoreando flujos de datos, identificando vulnerabilidades informativas y trabajando en conjunto con actores técnicos para desplegar campañas de influencia. Por ejemplo, las estructuras de inteligencia de Rusia, China o Irán emplean unidades dedicadas a la guerra de información, redes de bots, plataformas de difusión y alianzas tecnológicas internacionales.

Las grandes plataformas de redes sociales (TikTok, X, YouTube, etc.) no son solo soportes, sino centrales en la arquitectura algorítmica que permite segmentar audiencias, optimizar contenido e incrementar el alcance. Un informe reciente afirma que “social media recommendation algorithms … can be weaponised by state-sponsored objectives”. (los algoritmos de recomendación de las plataformas sociales pueden ser militarizados para servir a fines promovidos o financiados por Estados).

La línea entre lo estatal y lo privado se vuelve borrosa: empresas de marketing digital, agencias de datos (data brokers), equipos de analítica de redes sociales e incluso grupos de hackers contratados pueden colaborar (o solaparse) con servicios de inteligencia para operaciones de influencia. Este “ecosistema de actores” multiplica los efectos y dificulta la trazabilidad.

Algunas de las tecnologías claves para entender este proceso son:

  • Bots y cuentas falsas automatizadas que replican y amplifican mensajes.
  • Deepfakes y contenido generado por IA para suplantar identidades, difundir narrativas falsas o sembrar desconfianza.
  • Micro-targeting algorítmico que adapta mensajes a perfiles individuales.
  • Data mining y análisis de comportamiento en redes sociales.
  • Automatización de la repetición y optimización de contenido (test A/B, variaciones).
  • Infraestructura de “back-end”: algoritmos de recomendación, publicidad segmentada, machine-learning de optimización de impacto.

Implicancias para la democracia, los derechos civiles y la seguridad

La integridad de los procesos democráticos queda seriamente amenazada cuando campañas de influencia algorítmica pueden cambiar percepciones, polarizar sociedades y vulnerar consensos mínimos. En ese sentido, la desinformación ya no es solo propaganda, sino arma estratégica de inteligencia híbrida. El riesgo es aún mayor en contextos de baja regulación o escasa transparencia de los algoritmos de plataformas.

La manipulación algorítmica implica una intrusión en la experiencia digital de los ciudadanos: perfiles, segmentación, micro-targeting, vulnerabilidad cognitiva. Esto posee implicancias sustanciales para los derechos de privacidad, libertad de expresión y autonomía informativa.

Ralph Thiele, señala que los Estados “estarán cada vez más capacitados no solo para difundir desinformación, sino para manipular los datos y algoritmos que organizan nuestras realidades mediáticas”.

Las operaciones de inteligencia híbrida no se limitan al campo electoral: también pueden emplearse para desestabilizar países, erosionar confianza en instituciones, crear caos informativo previo a acciones militares o cibernéticas. El ámbito de la “seguridad nacional” se expande al terreno cognitivo e informativo.

¿Qué hacer? Estrategias de mitigación y gobernanza

Es urgente que las plataformas de redes sociales y los sistemas de recomendación adopten mayor transparencia, auditoría externa y control regulatorio. Los Estados democráticos deben exigir esquemas de gobernanza de algoritmos, segmentación y publicidad política digital. En Estados Unidos, por ejemplo, la Countering Foreign Propaganda and Disinformation Act (2016) creó un centro para coordinar contramedidas de propaganda extranjera.

La ciudadanía debe ser consciente del funcionamiento de algoritmos, del micro-targeting y de la manipulación informativa. Programas de educación digital, campañas de verificación de hechos y fortalecimiento del periodismo independiente son herramientas esenciales.

Los servicios de inteligencia y las agencias de seguridad que participen en operaciones de influencia deben operar dentro de un marco jurídico claro, con supervisión parlamentaria o judicial, transparencia y rendición de cuentas. Cuando la manipulación informativa pasa a formar parte del arsenal estatal, los riesgos para la democracia aumentan sustancialmente.

Dado que las campañas de influencia cruzan fronteras, requieren cooperación multilateral: intercambio de inteligencia, acuerdos de regulación de plataformas, traza de actores globales de manipulación algorítmica. Un enfoque “whole-of-society” es necesario para hacer frente a las redes híbridas.

¿Y América Latina? Particularidades y desafíos

En América Latina, el terreno de la desinformación algorítmica y las operaciones de inteligencia híbrida presenta características propias que agravan la vulnerabilidad regional. La primera es estructural: la alta penetración de redes sociales y el uso cotidiano de plataformas digitales para la información política convierten a la región en un ecosistema propicio para la manipulación automatizada. En varios países, más del 80 % de la población adulta consume noticias prioritariamente a través de Facebook, WhatsApp o X. Este patrón crea un canal directo entre los emisores de propaganda y los usuarios finales, con escasa mediación periodística o institucional.

A ello se suma la debilidad de los marcos regulatorios. Salvo excepciones puntuales —como la Ley General de Protección de Datos en Brasil o la Ley de Habeas Data en Argentina—, la región carece de políticas robustas sobre privacidad, transparencia algorítmica y publicidad política digital. Esta laguna legal facilita tanto la explotación comercial de los datos personales como su uso con fines de inteligencia o propaganda encubierta. El vacío normativo también genera asimetrías frente a los grandes conglomerados tecnológicos.

Otro elemento determinante es la brecha en la alfabetización digital. Amplios sectores sociales consumen información en entornos digitales sin conocer cómo funcionan los sistemas de recomendación ni los modelos de micro-targeting que seleccionan lo que ven. Esa falta de conciencia algorítmica potencia los efectos de las campañas de influencia, ya que la manipulación pasa inadvertida. Además, la polarización política y la fragilidad de las instituciones democráticas crean el terreno ideal para que la desinformación híbrida refuerce divisiones internas y erosione la confianza en el sistema.

En este contexto, América Latina necesita repensar su seguridad informacional como parte de la seguridad nacional. La defensa de infraestructuras críticas debe ir acompañada por la protección de la esfera cognitiva: educación mediática, verificación independiente, cooperación internacional y creación de observatorios que analicen la manipulación algorítmica. La soberanía digital no depende solo de poseer servidores o cables de fibra óptica, sino de garantizar que la ciudadanía pueda distinguir entre información y operación psicológica.

La combinación de algoritmos, redes sociales, micro-targeting y tácticas de inteligencia híbrida representa un punto de inflexión para la seguridad, la democracia y el poder estatal. Si antes parecía propaganda manual, localizada y lenta, ahora se ha transformado en un dispositivo global, automatizado y segmentado. Los “servicios de inteligencia” del siglo XX, centrados en espías, escuchas y cifrados, hoy se enfrentan a una nueva generación que opera en la “plataforma”, el “perfil”, el “algoritmo”.

Para una democracia que aspire a tener autonomía, transparencia y participación ciudadana, este nuevo modo de guerra exige respuestas igualmente modernas: gobernanza algorítmica, alfabetización digital, sistemas de control civil y cooperación internacional. Si no se actúa, la influencia ya no vendrá sólo de militares, diplomáticos o servicios secretos: también llegará codificada, segmentada, invisible y personalizada para cada ciudadano.

Por Max L. Van Hauvart Duart.

Compartí tu opinión