Nueva frontera para la inteligencia humana en la era de la I.A.

HUMINT, inteligencia, contrainteligencia, espionaje, contraespionaje, espia, C. Constantin Poindexter, Repúbilca Dominicana, España, DNI, NSA, CIA

El informe The Digital Case Officer: Reimagining Espionage with Artificial Intelligence representa una de las más ambiciosas reflexiones contemporáneas sobre la convergencia entre la inteligencia humana (HUMINT) y la inteligencia artificial (IA). Publicado por el Special Competitive Studies Project en 2025, el documento postula que la comunidad de inteligencia estadounidense se encuentra ante un cambio de paradigma comparable a la irrupción de Internet en la década de 1990. Su tesis central sostiene que la IA, particularmente los modelos generativos, multimodales y agénticos, puede revolucionar el ciclo de reclutamiento, desarrollo y manejo de fuentes humanas, inaugurando una forma de “cuarta generación del espionaje” donde los humanos y las máquinas actúan como un solo equipo operativo (Special Competitive Studies Project 2025, 4–6).

La lectura del informe revela un profundo entendimiento de los desafíos que el entorno digital impone a la práctica de la inteligencia. El texto acierta al reconocer que el valor esencial de la HUMINT no radica en la recopilación de datos observables, tarea donde los sistemas técnicos ya superan al ser humano, sino en la obtención del intento de los actores, es decir, la comprensión de las motivaciones, percepciones y decisiones que solo una fuente humana puede revelar (Special Competitive Studies Project 2025, 13–14). Esta distinción ontológica entre acción e intención preserva la relevancia del agente humano en la era algorítmica. Asimismo, el informe identifica con precisión el fenómeno de la vigilancia técnica ubicua, una realidad que amenaza con borrar el anonimato sobre el que se erigió el espionaje tradicional. Con ello, los autores contextualizan la urgencia de adaptar la profesión a un entorno donde toda huella digital puede delatar la identidad de un oficial de inteligencia.

Aciertos conceptuales: la integración estratégica de IA y HUMINT

Uno de los mayores méritos del documento reside en su capacidad para imaginar escenarios de uso concreto de la IA en las operaciones HUMINT. A través de la narrativa del sistema ficticio MARA, el informe ilustra cómo un agente digital podría analizar grandes volúmenes de datos abiertos y clasificados para identificar candidatos a reclutamiento, entablar contacto inicial mediante personalidades sintéticas y mantener diálogos persuasivos con cientos de potenciales fuentes en paralelo (Special Competitive Studies Project 2025, 8–9). Este ejercicio de prospectiva tecnológica cumple un doble propósito: por un lado, dimensiona la magnitud de la revolución que implicará la IA generativa; por otro, proporciona a los planificadores institucionales una guía pragmática sobre las capacidades y riesgos operativos que deben anticipar.

El texto también acierta al subrayar el principio de Meaningful Human Control (MHC), tomado de los debates éticos sobre armas autónomas, como fundamento normativo para el uso responsable de IA en inteligencia (Special Competitive Studies Project 2025, 24–25). Según este principio, toda decisión que conlleve riesgo humano, como el reclutamiento, la tarea operativa o el manejo de una fuente, debe estar sujeta a supervisión y responsabilidad de un oficial. De este modo, el informe equilibra el entusiasmo tecnológico con una defensa clara de la agencia moral humana.

Asimismo, la obra es sobresaliente al analizar el panorama competitivo internacional. En su Appendix A, el SCSP detalla cómo potencias como China y Rusia ya experimentan con IA generativa para optimizar sus operaciones de influencia, reclutamiento y contrainteligencia (Special Competitive Studies Project 2025, 34–35). El diagnóstico geoestratégico es convincente: los adversarios estadounidenses han comprendido que la IA no solo amplía la capacidad de vigilancia, sino que redefine la estructura misma de la competencia entre servicios de inteligencia. En consecuencia, la pasividad tecnológica equivaldría a la obsolescencia.

Por último, el informe acierta al considerar la dimensión psicológica del espionaje digital. Reconoce que, pese al poder de la automatización, la confianza, la empatía y la gestión emocional siguen siendo atributos exclusivamente humanos. El caso del activo que necesita una relación personal con su oficial para sostener el compromiso con una misión peligrosa, y que podría sentirse traicionado al descubrir que interactuaba con una máquina, demuestra una sensibilidad ética rara vez presente en documentos técnicos de inteligencia (Special Competitive Studies Project 2025, 17–18).

Debilidades conceptuales y metodológicas

A pesar de su sofisticación analítica, el informe presenta varias limitaciones que deben señalarse con rigor académico. Cuatro de ellas son especialmente relevantes: una sobre el alcance ontológico de la IA agéntica, otra sobre la ética instrumental de la manipulación emocional, una tercera sobre la fiabilidad epistemológica de la IA como agente operativo y una cuarta sobre la falta de análisis político de la gobernanza interinstitucional.

Ambigüedad conceptual del oficial digital

El documento define al Digital Case Officer como un sistema agéntico capaz de planificar y ejecutar tareas de reclutamiento con mínima intervención humana. Sin embargo, no ofrece una definición operativa precisa de agencia en el contexto de inteligencia. La noción de autonomía se confunde con la de automatización avanzada: un algoritmo que ejecuta secuencias de diálogo o identifica patrones de vulnerabilidad no es, en sentido filosófico, un agente moral ni un decisor autónomo. Autores como Floridi (2023) y Gunkel (2024) advierten que atribuir agencia a sistemas algorítmicos puede generar ilusiones de responsabilidad desplazada, donde los errores técnicos se interpretan como decisiones de una entidad inexistente. El informe incurre parcialmente en este antropomorfismo tecnológico, lo que debilita su fundamento teórico sobre el control humano y la responsabilidad ética. Una reformulación debería distinguir entre autonomía funcional, entendida como capacidad de operar sin supervisión inmediata, y autonomía decisional, reservando esta última exclusivamente al ser humano.

La ética de la manipulación emocional

El informe justifica el uso de affective computing y modelos conversacionales capaces de detectar y responder a emociones humanas para fortalecer la empatía simulada del oficial digital (Special Competitive Studies Project 2025, 15–16). Si bien reconoce los riesgos de manipulación, sugiere que el problema puede mitigarse mediante líneas rojas éticas y adecuada supervisión. No obstante, esta solución resulta insuficiente. La psicología moral y la ética de la persuasión, desde Kant hasta Habermas, sostienen que simular afecto con fines instrumentales constituye una forma de engaño que instrumentaliza la dignidad humana. Aun si se respetara el principio de MHC, la creación de vínculos emocionales falsos mediante algoritmos erosiona la confianza, fundamento mismo de la relación entre oficial y fuente. Una ética del espionaje digital debería incorporar explícitamente límites deontológicos que prohíban la simulación afectiva con fines coercitivos o de manipulación psicológica profunda.

Fiabilidad epistemológica y sesgos de la IA

Otro problema subestimado es la fiabilidad epistemológica de los modelos generativos como herramientas de reclutamiento. El informe reconoce la existencia de cajas negras algorítmicas que dificultan explicar por qué la IA selecciona un objetivo determinado (Special Competitive Studies Project 2025, 23–24), pero no desarrolla las implicaciones operativas de esa opacidad. En inteligencia, la trazabilidad y la validación de fuentes son pilares del proceso analítico. Si el sistema no puede justificar por qué considera reclutable a un individuo, por ejemplo, si interpreta erróneamente un gesto irónico en redes sociales como disidencia, el riesgo de falsos positivos es inmenso. Además, los modelos de lenguaje están entrenados sobre datos que reflejan sesgos culturales, raciales o ideológicos. En el contexto HUMINT, tales sesgos podrían conducir a la persecución selectiva de grupos o individuos inocentes. El informe debió profundizar en los mecanismos de auditoría algorítmica y control de sesgos que garanticen una epistemología verificable de la IA operativa.

Vacíos de gobernanza interinstitucional

La cuarta debilidad reside en la insuficiente problematización política del marco de gobernanza. Aunque el informe propone medidas de supervisión, auditorías, responsables humanos designados e informes al Congreso, no examina las tensiones burocráticas y jurisdiccionales que históricamente han obstaculizado la cooperación entre agencias como la CIA, el FBI y la NSA. La sugerencia de ofrecer “HUMINT as a Service” para otras agencias es innovadora, pero no se analiza cómo se resolverían los conflictos de autoridad, control de datos o responsabilidad legal ante errores operativos (Special Competitive Studies Project 2025, 29–30). Tampoco se contempla el papel de aliados extranjeros en la compartición de tecnologías sensibles. En un contexto de creciente desconfianza transatlántica y vigilancia cibernética, estas omisiones son significativas. Cualquier marco de inteligencia artificial aplicado a HUMINT debe incorporar un análisis institucional robusto sobre cómo preservar la rendición de cuentas dentro de una comunidad caracterizada por la compartimentación y el secreto.

El impacto psicológico en los agentes humanos

Una debilidad adicional, apenas insinuada, es la falta de atención al impacto psicológico de la hibridación humano máquina sobre los propios oficiales de caso. El informe alude brevemente al peso psicológico del espionaje en un entorno de transparencia total (Special Competitive Studies Project 2025, 17–18), pero no analiza cómo la dependencia operativa de algoritmos puede afectar la identidad profesional, la moral o el juicio ético del oficial. Estudios recientes en neuroergonomía y psicología del trabajo demuestran que la sobreautomatización reduce la confianza en el propio criterio y fomenta una delegación pasiva de la responsabilidad moral (Cummings 2024; Krupnikov 2025). En un oficio donde el discernimiento moral y la intuición interpersonal son esenciales, tal degradación cognitiva tendría consecuencias graves. La gobernanza de la IA en inteligencia debería contemplar programas de resiliencia psicológica y entrenamiento ético para preservar la autonomía moral de los oficiales.

Implicaciones estratégicas y éticas

Más allá de sus debilidades, el informe plantea preguntas fundamentales sobre la ontología del espionaje en el siglo XXI. Si la IA puede simular empatía, gestionar identidades virtuales y ejecutar tareas de persuasión, ¿sigue siendo la HUMINT una relación humana? El documento responde afirmativamente, defendiendo la noción del equipo humano máquina. Sin embargo, el riesgo de deshumanización es real: cuanto más eficaz sea la IA en emular la confianza, más fácil será reemplazar al humano en las etapas iniciales de contacto. Este dilema ético recuerda las advertencias de Shulman (2023), quien argumenta que la automatización de la interacción moral puede generar alienación operacional, un estado en el que los agentes ya no perciben las consecuencias humanas de sus acciones.

Desde una perspectiva estratégica, el modelo propuesto por el SCSP redefine la escala y el ritmo de las operaciones HUMINT. Un solo oficial, asistido por una red de IA, podría interactuar con cientos de objetivos en paralelo, multiplicando exponencialmente el alcance del espionaje. Pero esta misma escalabilidad erosiona los controles tradicionales basados en la supervisión directa. En un entorno donde la velocidad de interacción supera la capacidad humana de revisión, el riesgo de abusos o errores sistémicos aumenta. La historia de la inteligencia demuestra que los fallos no provienen solo de malas intenciones, sino de la combinación de exceso de confianza tecnológica y déficit de deliberación moral.

Hacia una epistemología prudente de la inteligencia artificial

La integración de IA en la práctica del espionaje exige una nueva epistemología prudente, basada en tres principios rectores: transparencia algorítmica, responsabilidad humana y proporcionalidad moral.

En primer lugar, la transparencia implica desarrollar sistemas explicables cuya lógica decisional pueda auditarse en tiempo real. Sin explicabilidad, la confianza institucional se convierte en fe ciega. En segundo lugar, la responsabilidad humana debe ser indivisible. El principio de MHC no debe reducirse a un trámite de aprobación, sino concebirse como una forma de coautoría moral entre humano y máquina, donde el primero mantiene dominio sobre el propósito y el significado de la acción. En tercer lugar, la proporcionalidad exige evaluar el costo moral de cada innovación: la capacidad de hacer más no justifica automáticamente hacerlo todo.

Adoptar estos principios requerirá reformas legales y culturales. A nivel normativo, el Congreso y el Poder Ejecutivo deberían actualizar la Orden Ejecutiva 12333 para definir explícitamente la naturaleza jurídica de los sistemas autónomos de inteligencia y su relación con los derechos civiles de los ciudadanos estadounidenses. A nivel institucional, las academias de inteligencia deberían incorporar formación en ética de IA y filosofía de la tecnología, equipando a los futuros oficiales con herramientas críticas para resistir la automatización acrítica del juicio moral.

Finalmente, el debate sobre el Digital Case Officer invita a reconsiderar la esencia misma del espionaje. Si el futuro de la inteligencia es híbrido, su éxito no dependerá solo de la potencia computacional, sino de la capacidad de mantener el núcleo humanista del oficio. Como advirtió Richard Moore, director del MI6, “la relación que permite que una persona confíe genuinamente en otra sigue siendo obstinadamente humana” (Moore 2023). Esta afirmación resume la paradoja que el informe del SCSP plantea sin resolver plenamente: la tecnología puede ampliar la inteligencia, pero solo el ser humano puede darle propósito moral.

~ C. Constantin Poindexter, M.A. en Inteligencia, Certificado de Posgrado en Contrainteligencia, J.D., certificación CISA/NCISS OSINT, Certificación DoD/DoS BFFOC

Referencias

Cummings, Mary L. 2024. “Automation and the Erosion of Human Judgment in Defense Systems.” Journal of Military Ethics 23 (2): 101–120.

Floridi, Luciano. 2023. The Ethics of Artificial Agents. Oxford: Oxford University Press.

Gunkel, David. 2024. The Machine Question Revisited: AI and Moral Agency. Cambridge, MA: MIT Press.

Krupnikov, Andrei. 2025. “Psychological Implications of Human Machine Teaming in Intelligence Work.” Intelligence and National Security 40 (3): 215–233.

Moore, Richard. 2023. “Speech by Sir Richard Moore, Head of SIS.” London: UK Government.

Shulman, Peter. 2023. “Operational Alienation in Autonomous Warfare.” Ethics & International Affairs 37 (4): 442–460.

Special Competitive Studies Project. 2025. The Digital Case Officer: Reimagining Espionage with Artificial Intelligence. Washington, D.C.: SCSP Press.

Cibermilicias y la Lucha por la Primacía en el Espacio de Batalla Informativa

ciber, cibermilicia, inteligencia, espionaje, contrainteligencia, contraespionaje, c. constantin poindexter

Llegué a la madurez profesional en una comunidad de inteligencia que todavía concebía la línea de frente (“teatro principal de operaciones”) como un lugar al que uno podía acceder, cartografiar y asegurar. Ese mundo ha desaparecido. Hoy, adversarios no militares, organizados de manera laxa en cibermilicias de propagandistas, piratas informáticos patrióticos, emprendedores de la influencia y amplificadores remunerados o voluntarios disputan la iniciativa no con blindados ni artillería, sino colonizando la atención, deformando la percepción y acelerando la división social a gran escala. Nuestra doctrina ha comenzado a reconocer este cambio. En 2017, el Departamento de Defensa de los Estados Unidos elevó la información a función conjunta, formalizando lo que los operadores llevaban años observando. Reconocemos que las campañas modernas dependen de crear y explotar la ventaja informativa. La Estrategia de 2023 para Operaciones en el Entorno Informativo del Departamento de Defensa EEUU lo expone de manera explícita: la Fuerza Conjunta debe estar organizada, adiestrada y dotada de recursos para integrar efectos informativos junto con fuegos y maniobra (DoD, 2023).

Por cibermilicias entiendo a actores no uniformados, a veces dirigidos por el Estado, a menudo tolerados por él o subcontratados a la multitud, que combinan acciones cibernéticas con guerra narrativa en plataformas sociales. Reclutan y radicalizan, acosan en enjambres, hostigan y exponen datos personales, siembran falsificaciones digitales y teorías conspirativas, e inundan el espacio con memes emocionalmente persuasivos. Su mando y control suele ser plano e improvisado, su logística se basa en la nube y su ritmo operacional lo marcan los algoritmos de las plataformas y los ciclos informativos. Hemos visto efectos militares de tales formaciones en teatros diversos. La llamada Internet Research Agency (IRA) ejemplificó una milicia de influencia vinculada al Estado que escaló intentos de persuasión y movilización fuera de línea a través de plataformas sociales estadounidenses. Investigaciones rigurosas han matizado posteriormente las afirmaciones maximalistas sobre cambios medibles en actitudes, pero el hecho operacional permanece: los adversarios pueden alcanzar a millones de objetivos, a un coste marginal casi nulo, con narrativas adaptadas y sincronizadas con objetivos geopolíticos (Eady et al., 2023).

En el extremo opuesto, el IT Army of Ukraine constituye un caso de movilización cibernética defensiva: una formación voluntaria que ejecuta ataques DDoS, búsqueda de vulnerabilidades y operaciones psicológicas en paralelo con esfuerzos estatales. Esto ilustra tanto la potencia como las ambigüedades jurídicas y éticas que surgen cuando civiles se convierten en combatientes en el dominio informativo (Munk, 2025).

Las organizaciones terroristas comprendieron hace tiempo el poder de las redes sociales. El ISIS combinó la brutalidad en el campo de batalla con una maquinaria propagandística meticulosamente diseñada en línea, optimizada para reclutamiento, intimidación y fijación de agenda en múltiples lenguas y plataformas. Análisis revisados por pares detallan cómo ISIS explotó las funcionalidades de las plataformas para mantener su alcance incluso cuando se eliminaban cuentas (Done, 2022). El actual aluvión de proclamaciones de victorias en el teatro de guerra palestinas es igualmente ilustrativo.

Por qué las Redes Sociales Pueden Rivalizar con la Fuerza Física

La respuesta sencilla es la escala y la velocidad. La propaganda computacional aprovecha la automatización, la amplificación y la microsegmentación para saturar los canales informativos más rápido de lo que la verificación de hechos o el debate pueden alcanzar. Revisión sistemática tras revisión sistemática enmarcan esto como un ecosistema sociotécnico en evolución más que como una táctica puntual (Bradshaw y Howard, 2019).

La asimetría es un segundo factor crucial. Los bots y las conductas inauténticas coordinadas otorgan a pequeños operadores una influencia desproporcionada, especialmente en los primeros minutos del ciclo de vida de una narrativa, cuando las señales de interacción iniciales pueden inclinar los sistemas de clasificación de las plataformas. Estudios demuestran que las cuentas automatizadas amplifican de forma desproporcionada contenido de baja credibilidad en esas fases críticas (Shao et al., 2018).

Los efectos sobre el terreno humano deben contemplarse. Incluso cuando la persuasión directa es modesta, los daños en zonas de conflicto son muy reales. Doxing, estigmatización, desplazamiento y profanación cultural se han vinculado a la incitación en línea durante conflictos armados. No se trata únicamente de charlas en Internet, es preparación operacional del entorno con consecuencias humanas (Ulbricht, 2024).

La integración con operaciones cinéticas constituye además un ingrediente imperativo. En Ucrania, las fuerzas rusas combinaron sistemas físicos, como el Orlan-10/Leer-3, con campañas masivas de mensajes de texto y redes sociales para inducir pánico y erosionar la cohesión. Esto recuerda que los fuegos informativos pueden acotar el espacio de batalla tan eficazmente como la artillería (GAO, 2022).

La maniobra memética es la última consideración. En los conflictos contemporáneos, las narrativas basadas en memes no son meras efímeras: constituyen maniobra en el dominio cognitivo. Estudios recientes sobre la guerra memética en el contexto Rusia-Ucrania sostienen que estos artefactos estructuran la atención, codifican marcos complejos y aceleran el reclutamiento hacia la propaganda participativa a gran escala (Prier, 2017).

Una Nota sobre la Evidencia y la Prudencia

La honestidad intelectual más rigurosa debe estar en primer plano. Un estudio en Nature Communications que vinculó datos de Twitter en Estados Unidos con encuestas no halló cambios estadísticamente significativos en actitudes o elección de voto atribuibles a la exposición a la IRA en 2016. Sin embargo, no debemos ignorar esto ni sobregeneralizar. El estudio no absuelve a las campañas adversarias, refina nuestra teoría del efecto. Muchas operaciones buscan el control de la agenda, la polarización, la intimidación y la distracción en tiempo objetivo más que el mero cambio de voto. En la guerra, incluso variaciones pequeñas en la participación, la percepción del riesgo o la moral de la unidad pueden ser decisivas (Eady et al., 2023).

El Imperativo: Tratar la Propaganda Adversaria como un Objetivo de Campaña

La OTAN enmarca ahora la guerra cognitiva como un desafío interdominios. La mente humana es terreno disputado donde los actores buscan modificar percepciones y conductas (Claverie du Cluzel et al., 2021). No es retórica inflamatoria, es realidad operacional en todo teatro que he observado. Nuestra respuesta debe abandonar la era de refutaciones improvisadas y avanzar hacia operaciones integradas en el entorno informativo con objetivos, autoridades y métricas explícitas de desempeño y efecto.

Qué Deben Hacer la Inteligencia y los Combatientes

  1. Construir un panorama de inteligencia fusionada del campo de batalla narrativo.
  2. Normalizar el entorno informativo junto con fuegos y maniobra.
  3. Disputar la iniciativa mediante prebunking y resiliencia, no solo eliminando contenidos.
  4. Imponer fricción a las cibermilicias hostiles.
  5. Clarificar autoridades y alinear con el derecho de los conflictos armados.
  6. Entrenar para el dominio cognitivo.
  7. Medir lo que importa, evitando indicadores de pura vanidad.

Conclusión Estratégica

En la guerra convencional, la ventaja es acumulativa. En la guerra informativa, es compuesta. El bando que penetra el ciclo de decisión del adversario establece el marco para todo lo que sigue. Nuestros adversarios ya juegan ese juego. Despliegan cibermilicias que operan a velocidad de máquina pero hablan en idioma humano, explotando incentivos de plataforma y sesgos cognitivos tan antiguos como la persuasión y tan novedosos como la inteligencia artificial generativa.

Como profesionales de inteligencia y combatientes, nuestra misión no es simplemente refutar mentiras una vez consumado el daño, sino negar la iniciativa adversaria en el entorno informativo, mapear y anticipar sus campañas, fortalecer nuestras poblaciones e integrar los efectos narrativos con la maniobra. Hacerlo bajo el imperio de la ley y con responsabilidad democrática será un reto. La Comunidad de Inteligencia y las fuerzas armadas no ignoran esta realidad: la Fuerza Conjunta ya reconoce la información como función central. Pero la doctrina sin recursos ni práctica es solo papel. Debemos construir los equipos, autoridades y hábitos para luchar y prevalecer allí donde ahora habita la gente, en sus feeds y chats, tanto como en el espacio físico. Si fracasamos, cederemos el terreno decisivo del conflicto moderno a adversarios no militares que comprenden que la primacía ya no se mide únicamente en metros conquistados, sino en mentes retenidas.

Una recomendación crucial es que la contrainteligencia está particularmente bien adaptada a esta misión. El oficio de la contrainteligencia, históricamente dedicado a identificar, engañar y neutralizar operaciones de influencia hostil, se traduce directamente a la lucha contra las cibermilicias. Los operadores de contrainteligencia aportan pericia en atribución adversaria, operaciones de doble agente, detección de desinformación y manipulación de redes clandestinas. Estas son exactamente las habilidades necesarias para desenmascarar conductas inauténticas coordinadas en línea. Estoy convencido de que integrar la contrainteligencia en la guerra informativa ofrece ventajas singulares, al combinar análisis técnico de señales con validación de fuentes humanas y la capacidad de explotar, interrumpir o cooptar operaciones adversarias de influencia de un modo que supera la mera moderación de contenidos (Hunker, 2010; Rid, 2020). Dejar las cibermilicias únicamente en manos de la diplomacia pública o de la autorregulación de plataformas equivale a luchar con un brazo atado. Incorporar la contrainteligencia en el núcleo de nuestras campañas informativas asegura que Estados Unidos no solo pueda defenderse de la propaganda adversaria, sino también disputar y desmantelar activamente las redes que la impulsan.

~ C. Constantin Poindexter, M.A. en Inteligencia, Certificado de Posgrado en Contrainteligencia, J.D., certificación CISA/NCISS OSINT, Certificación DoD/DoS BFFOC

Referencias

Bradshaw, S., y Howard, P. N. (2019). El orden global de la desinformación: Inventario mundial 2019 de la manipulación organizada en redes sociales. Oxford: Oxford Internet Institute. [en inglés]

Claverie du Cluzel, F., et al. (2021). Guerra cognitiva. Comando Aliado de Transformación de la OTAN, Innovation Hub. Norfolk, VA. [en inglés]

Departamento de Defensa de los Estados Unidos. (2023). Estrategia para las operaciones en el entorno informativo. Washington, DC. [en inglés]

Done, A. (2022). La propaganda del ISIS y la radicalización en línea. Journal of Strategic Security, 15(3), 27–49. [en inglés]

Eady, G., Nagler, J., Guess, A., Zilinsky, J., y Tucker, J. (2023). Exposición a la campaña de influencia extranjera de la Agencia de Investigación de Internet rusa en Twitter durante las elecciones de 2016 en Estados Unidos y su relación con actitudes y comportamiento de voto. Nature Communications, 14(1), 367. [en inglés]

Oficina de Responsabilidad Gubernamental de EE. UU. (GAO). (2022). Entorno informativo: El Departamento de Defensa debería tomar medidas para ampliar sus evaluaciones de las operaciones de información. Washington, DC. [en inglés]

Hunker, J. (2010). Guerra cibernética y poder cibernético: cuestiones para la doctrina de la OTAN. Documento de investigación del Colegio de Defensa de la OTAN, núm. 62. Roma: Colegio de Defensa de la OTAN. [en inglés]

Maertens, R., Roozenbeek, M., van der Linden, S., y Lewandowsky, S. (2021). Eficacia a largo plazo de la inoculación contra la desinformación: tres experimentos longitudinales. Journal of Experimental Psychology: Applied, 27(1), 1–16. [en inglés]

Munk, T. (2025). El Ejército Informático de Ucrania: resistencia civil digital y derecho internacional. Crime, Law and Social Change, 83(1), 55–74. [en inglés]

Prier, J. (2017). Comandando la tendencia: las redes sociales como guerra de información. Strategic Studies Quarterly, 11(4), 50–85. [en inglés]

Rid, T. (2020). Medidas activas: la historia secreta de la desinformación y la guerra política. Nueva York: Farrar, Straus and Giroux. [en inglés]

Roozenbeek, J., van der Linden, S., et al. (2020). El juego de las noticias falsas confiere resistencia psicológica contra la desinformación en línea. Palgrave Communications, 6(1), 65. [en inglés]

Shao, C., Ciampaglia, G. L., Varol, O., Flammini, A., y Menczer, F. (2018). La difusión de contenido de baja credibilidad por parte de bots sociales. Nature Communications, 9(1), 4787. [en inglés]

Ulbricht, M. (2024). Propaganda en línea y daño civil en conflictos armados. International Review of the Red Cross, 106(1), 67–94. [en inglés]