Radar Austral

IA y servicios de inteligencia: la delgada línea entre seguridad y persecución

¿Puede un Estado usar IA para identificar, seguir y castigar a sus propios ciudadanos sin quebrar los principios democráticos que lo sostienen? Escrito por Maximiliano Van Hauvart Duart.

Publicado el 14 de octubre de 2025 por Radar Austral
IA y servicios de inteligencia: la delgada línea entre seguridad y persecución

Durante las últimas décadas, la inteligencia estatal ha sido el corazón invisible del poder político. Allí donde la información vale más que las armas, los servicios secretos se transforman en la primera línea de defensa o en el mecanismo más eficiente de control social. Hoy, el despliegue de inteligencia artificial (IA) en esos aparatos representa una nueva frontera: promete eficiencia y prevención, pero también amplifica el riesgo de vigilancia masiva y persecución de ciudadanos.

La cuestión central no es tecnológica, sino política y ética: ¿puede un Estado usar IA para identificar, seguir y castigar a sus propios ciudadanos sin quebrar los principios democráticos que lo sostienen?

La fusión entre algoritmos y espionaje

Los servicios de inteligencia han evolucionado desde la interceptación analógica hasta el análisis automatizado de datos en redes, cámaras, dispositivos móviles y sistemas bancarios. La IA, especialmente el machine learning, permite procesar volúmenes colosales de información, detectar patrones y anticipar conductas.

En los hechos, la inteligencia moderna dejó de centrarse en “el enemigo exterior” y se volcó hacia el control de la sociedad civil. Las líneas que separaban seguridad nacional, crimen organizado y disidencia política se diluyen. La tecnología acelera esa convergencia.

El analista estadounidense Edward Snowden lo advirtió hace más de una década al revelar el programa PRISM de la NSA: “La vigilancia masiva no se trata de seguridad, sino de poder”. En 2024, el fenómeno ha mutado considerablemente, pero la premisa sigue intacta: la IA ofrece al Estado una lupa sin precedentes sobre la vida privada de millones de personas.

Vigilancia predictiva y patrullaje digital

El nuevo rostro del espionaje estatal ya no usa gabardina ni micrófonos ocultos. Hoy se manifiesta en algoritmos entrenados para identificar amenazas potenciales: ciudadanos que, por sus publicaciones, rutinas o vínculos digitales, podrían “anticipar” un delito o una protesta.

En Argentina, el Ministerio de Seguridad creó en 2024 la Unidad de Inteligencia Artificial Aplicada a la Seguridad (UIAAS), cuya función declarada es el “patrullaje de redes sociales abiertas, sitios web y dark web” para detectar delitos o “riesgos de alteración del orden”. En Europa, varios Estados experimentan con IA policial predictiva. El sistema “PredPol”, implementado en Francia, intenta anticipar zonas de posible criminalidad, mientras que en los Países Bajos un algoritmo fiscal fue declarado ilegal tras discriminar a inmigrantes al asignarles probabilidades más altas de fraude social.

Un caso similar es el de la agencia nacional de seguridad social de Suecia, que aplicó IA para detectar fraudes en subsidios. Una auditoría independiente reveló que el sistema marcaba desproporcionadamente a mujeres e inmigrantes. Debido a esto, Amnistía Internacional exigió su suspensión, señalando que el algoritmo violaba los principios de igualdad y no discriminación.

La frontera entre prevención y persecución se vuelve difusa cuando la sospecha no surge de una evidencia, sino de un cálculo estadístico.

Pegasus, el espionaje en el bolsillo

El caso del software Pegasus, desarrollado por la empresa israelí NSO Group, demuestra que la vigilancia ya no requiere sofisticados centros de escucha: basta un solo clic. Pegasus permite tomar control total de un teléfono: activar el micrófono, leer mensajes cifrados, acceder a la cámara y ubicar al usuario sin dejar rastro. Supuestamente reservado para combatir terrorismo y crimen organizado, ha sido usado para espiar periodistas, abogados y opositores en más de 45 países.

En 2024, The Guardian reveló que el gobierno de Jordania lo utilizó contra defensores de derechos humanos y abogados que litigaban contra el Estado. El patrón se repite: cada herramienta tecnológica diseñada para proteger termina siendo tentadora para vigilar. Y una vez que los datos se obtienen, el poder raramente los devuelve.

China: el modelo total

En China, la vigilancia se transformó en un sistema integral de gobernanza. El llamado Social Credit System combina datos financieros, judiciales, de transporte y comportamiento digital para generar un “índice de confiabilidad ciudadana”. Una mala puntuación puede impedir acceder a créditos, viajes o empleos públicos. Además, la Operación Sky Net —en teoría orientada a capturar fugitivos por corrupción— también es utilizada para perseguir disidentes y opositores en el extranjero, incluyendo a miembros de la diáspora uigur.

China no oculta su ambición: exportar este modelo de vigilancia inteligente como servicio estatal a otros países del Sur Global. En la práctica, constituye una fusión entre inteligencia, policía y análisis de datos, sin límites judiciales ni rendición pública.

Las formas de persecución del siglo XXI no son espectaculares ni sangrientas; son administrativas, invisibles y automáticas. Los gobiernos que combinan IA con inteligencia no necesitan dictaduras para controlar: basta con modificar los parámetros de un sistema.

Un nombre marcado por error puede impedir el acceso a un crédito o trabajo; una publicación crítica en redes puede generar una “alerta preventiva”; una coincidencia digital con un sospechoso puede bastar para iniciar una investigación. Estas microdecisiones, tomadas por algoritmos, distribuyen castigos sin necesidad de juicios ni cárceles. Michel Foucault imaginó esta mutación del poder: del castigo visible al control invisible. La IA, hoy, lo perfecciona.

El marco legal: entre vacío y opacidad

La mayoría de los Estados carece de marcos normativos específicos para el uso de IA en inteligencia o defensa. Las leyes de protección de datos son insuficientes cuando el secreto de Estado y la seguridad nacional sirven de escudo.

No obstante, algunos avances recientes buscan poner límites:

  • Unión Europea: el AI Act (2024) prohíbe el reconocimiento facial en tiempo real en espacios públicos y los sistemas de “social scoring” al estilo chino. También exige evaluaciones de riesgo para IA empleadas por agencias de seguridad.
  • Consejo de Europa: en 2024 se aprobó el Framework Convention on Artificial Intelligence, primer tratado internacional que obliga a los Estados a garantizar que toda IA respete derechos humanos, democracia y Estado de derecho.
  • ONU: discute la creación de un organismo específico para monitorear el impacto de la IA en seguridad y derechos humanos, aunque sin consenso vinculante.

Por otro lado, en América Latina, el vacío legal es casi total. La regulación de inteligencia permanece sujeta a decretos y resoluciones administrativas. Y el control parlamentario, cuando existe, es más formal que efectivo. En este marco, la justificación habitual es la eficiencia: la IA “ahorra tiempo y recursos”, “detecta patrones que los humanos no ven”, “previene delitos antes de que ocurran”. Sin embargo, la eficiencia sin ética es sólo una forma más rápida de violar derechos.

Los datos nunca son neutrales. Un sistema entrenado con información sesgada —por ejemplo, antecedentes policiales concentrados en ciertos barrios o etnias— reproducirá ese sesgo como verdad estadística. Lo que se presenta como ciencia es, muchas veces, una versión digital del prejuicio. Además, los modelos predictivos se vuelven profecías autocumplidas: si la IA señala que un grupo es más propenso al delito, los recursos policiales se concentran allí, generando más arrestos, reforzando el patrón que el algoritmo “detectó”.

La utilización política de la inteligencia no es para nada un fenómeno nuevo, pero la IA le da una escala inédita. Con unos pocos clics se pueden mapear relaciones sociales, preferencias ideológicas o redes de afinidad. En contextos polarizados, esa información se vuelve oro para campañas de manipulación y control. Ya no se necesita censurar a los medios: basta con dirigir la atención pública mediante algoritmos y desinformación dirigida. Las mismas técnicas que se usan para detectar terroristas pueden servir para neutralizar opositores.

El riesgo no es abstracto. En países democráticos, los servicios de inteligencia han sido usados históricamente para vigilar periodistas o adversarios políticos. La diferencia es que hoy, con IA, esa vigilancia puede hacerse a una escala total y en tiempo real.

Ética y control civil: los dos antídotos

Ninguna tecnología, por sí sola, garantiza libertad ni opresión. Todo depende de quién la usa, con qué límites y con qué supervisión. Los servicios de inteligencia cumplen funciones legítimas: proteger la soberanía, prevenir atentados, desarticular redes criminales. Pero cuando se apartan del control civil, su eficacia se convierte en amenaza.

Por eso, cualquier despliegue de IA en actividades de inteligencia debe incluir:

  1. Leyes claras y públicas, aprobadas por el Congreso, que definan los límites y objetivos del uso de IA.
  2. Supervisión judicial y parlamentaria independiente, con capacidad de auditar algoritmos y sistemas.
  3. Evaluaciones de impacto en derechos humanos, antes de poner en marcha proyectos de vigilancia digital.
  4. Transparencia tecnológica: acceso a la documentación, código y proveedores utilizados.
  5. Educación ciudadana: informar al público sobre sus derechos digitales y mecanismos de defensa.
  6. Protección a denunciantes y periodistas que expongan abusos en materia de vigilancia.

Sin control civil, la inteligencia se vuelve contrainteligencia democrática.

El problema de fondo no es sólo jurídico, sino cultural. En la sociedad de la inmediatez, la seguridad se convierte en un bien emocional: los ciudadanos aceptan perder privacidad a cambio de una sensación de control. La IA acelera esa transacción, disfrazándose de neutralidad técnica. Pero la seguridad sin libertad es sólo otro nombre del miedo. Y la historia enseña que los aparatos de vigilancia rara vez se desmantelan una vez creados.

George Orwell imaginó en 1984 un mundo donde la vigilancia era visible, opresiva, ineludible. La realidad de 2025 es más sutil: nadie nos obliga a obedecer, pero todos sabemos que estamos siendo observados. Es un panóptico digital donde el control se ejerce sin coerción directa, mediante la sensación constante de ser analizados.

Hacia un paradigma de inteligencia democrática

El desafío no es eliminar la inteligencia ni renunciar a la IA, sino redefinir la relación entre tecnología y derechos. La inteligencia democrática debería fundarse en tres principios:

  1. Legalidad: toda acción debe estar prevista por ley, con autorización judicial y control ex post.
  2. Proporcionalidad: el nivel de vigilancia debe ser adecuado al riesgo que se busca prevenir.
  3. Responsabilidad: los funcionarios y proveedores tecnológicos deben rendir cuentas por los daños causados.

Ningún algoritmo puede reemplazar el juicio ético. Si los Estados desean usar IA para proteger, primero deben demostrar que son capaces de autolimitar su poder.

La historia enseña que toda herramienta de poder termina reflejando el régimen que la utiliza. La inteligencia artificial aplicada a la vigilancia y el control puede ser una aliada de la seguridad pública o el arma más eficaz de la represión moderna.

El dilema no es técnico, sino moral: ¿cuánto estamos dispuestos a entregar por sentirnos seguros? Si la respuesta es “todo”, entonces la máquina no nos habrá dominado: nos habremos entregado voluntariamente.

Por Maximiliano Van Hauvart Duart.

Compartí tu opinión