{"id":532,"date":"2025-10-23T21:13:19","date_gmt":"2025-10-24T01:13:19","guid":{"rendered":"https:\/\/constantinpoindexter.com\/blog\/?p=532"},"modified":"2025-10-23T23:55:17","modified_gmt":"2025-10-24T03:55:17","slug":"nueva-frontera-para-la-inteligencia-humana-en-la-era-de-la-i-a","status":"publish","type":"post","link":"https:\/\/constantinpoindexter.com\/blog\/nueva-frontera-para-la-inteligencia-humana-en-la-era-de-la-i-a\/","title":{"rendered":"Nueva frontera para la inteligencia humana en la era de la I.A."},"content":{"rendered":"\n<p>El informe The Digital Case Officer: Reimagining Espionage with Artificial Intelligence representa una de las m\u00e1s ambiciosas reflexiones contempor\u00e1neas sobre la convergencia entre la inteligencia humana (<a href=\"https:\/\/en.wikipedia.org\/wiki\/Human_intelligence_(intelligence_gathering)\" target=\"_blank\" rel=\"noopener\" title=\"HUMINT\">HUMINT<\/a>) y la inteligencia artificial (IA). Publicado por el Special Competitive Studies Project en 2025, el documento postula que la comunidad de inteligencia estadounidense se encuentra ante un cambio de paradigma comparable a la irrupci\u00f3n de Internet en la d\u00e9cada de 1990. Su tesis central sostiene que la IA, particularmente los modelos generativos, multimodales y ag\u00e9nticos, puede revolucionar el ciclo de reclutamiento, desarrollo y manejo de fuentes humanas, inaugurando una forma de \u201ccuarta generaci\u00f3n del espionaje\u201d donde los humanos y las m\u00e1quinas act\u00faan como un solo equipo operativo (Special Competitive Studies Project 2025, 4\u20136).<\/p>\n\n\n\n<p>La lectura del informe revela un profundo entendimiento de los desaf\u00edos que el entorno digital impone a la pr\u00e1ctica de la inteligencia. El texto acierta al reconocer que el valor esencial de la HUMINT no radica en la recopilaci\u00f3n de datos observables, tarea donde los sistemas t\u00e9cnicos ya superan al ser humano, sino en la obtenci\u00f3n del intento de los actores, es decir, la comprensi\u00f3n de las motivaciones, percepciones y decisiones que solo una fuente humana puede revelar (Special Competitive Studies Project 2025, 13\u201314). Esta distinci\u00f3n ontol\u00f3gica entre acci\u00f3n e intenci\u00f3n preserva la relevancia del agente humano en la era algor\u00edtmica. Asimismo, el informe identifica con precisi\u00f3n el fen\u00f3meno de la vigilancia t\u00e9cnica ubicua, una realidad que amenaza con borrar el anonimato sobre el que se erigi\u00f3 el espionaje tradicional. Con ello, los autores contextualizan la urgencia de adaptar la profesi\u00f3n a un entorno donde toda huella digital puede delatar la identidad de un oficial de inteligencia.<\/p>\n\n\n\n<p><strong>Aciertos conceptuales: la integraci\u00f3n estrat\u00e9gica de IA y HUMINT<\/strong><\/p>\n\n\n\n<p>Uno de los mayores m\u00e9ritos del documento reside en su capacidad para imaginar escenarios de uso concreto de la IA en las operaciones HUMINT. A trav\u00e9s de la narrativa del sistema ficticio MARA, el informe ilustra c\u00f3mo un agente digital podr\u00eda analizar grandes vol\u00famenes de datos abiertos y clasificados para identificar candidatos a reclutamiento, entablar contacto inicial mediante personalidades sint\u00e9ticas y mantener di\u00e1logos persuasivos con cientos de potenciales fuentes en paralelo (Special Competitive Studies Project 2025, 8\u20139). Este ejercicio de prospectiva tecnol\u00f3gica cumple un doble prop\u00f3sito: por un lado, dimensiona la magnitud de la revoluci\u00f3n que implicar\u00e1 la IA generativa; por otro, proporciona a los planificadores institucionales una gu\u00eda pragm\u00e1tica sobre las capacidades y riesgos operativos que deben anticipar.<\/p>\n\n\n\n<p>El texto tambi\u00e9n acierta al subrayar el principio de <a href=\"https:\/\/mwi.westpoint.edu\/what-is-meaningful-human-control-anyway-cracking-the-code-on-autonomous-weapons-and-human-judgment\/\" target=\"_blank\" rel=\"noopener\" title=\"Meaningful Human Control\">Meaningful Human Control<\/a> (MHC), tomado de los debates \u00e9ticos sobre armas aut\u00f3nomas, como fundamento normativo para el uso responsable de IA en inteligencia (Special Competitive Studies Project 2025, 24\u201325). Seg\u00fan este principio, toda decisi\u00f3n que conlleve riesgo humano, como el reclutamiento, la tarea operativa o el manejo de una fuente, debe estar sujeta a supervisi\u00f3n y responsabilidad de un oficial. De este modo, el informe equilibra el entusiasmo tecnol\u00f3gico con una defensa clara de la agencia moral humana.<\/p>\n\n\n\n<p>Asimismo, la obra es sobresaliente al analizar el panorama competitivo internacional. En su Appendix A, el SCSP detalla c\u00f3mo potencias como China y Rusia ya experimentan con IA generativa para optimizar sus operaciones de influencia, reclutamiento y contrainteligencia (Special Competitive Studies Project 2025, 34\u201335). El diagn\u00f3stico geoestrat\u00e9gico es convincente: los adversarios estadounidenses han comprendido que la IA no solo ampl\u00eda la capacidad de vigilancia, sino que redefine la estructura misma de la competencia entre servicios de inteligencia. En consecuencia, la pasividad tecnol\u00f3gica equivaldr\u00eda a la obsolescencia.<\/p>\n\n\n\n<p>Por \u00faltimo, el informe acierta al considerar la dimensi\u00f3n psicol\u00f3gica del espionaje digital. Reconoce que, pese al poder de la automatizaci\u00f3n, la confianza, la empat\u00eda y la gesti\u00f3n emocional siguen siendo atributos exclusivamente humanos. El caso del activo que necesita una relaci\u00f3n personal con su oficial para sostener el compromiso con una misi\u00f3n peligrosa, y que podr\u00eda sentirse traicionado al descubrir que interactuaba con una m\u00e1quina, demuestra una sensibilidad \u00e9tica rara vez presente en documentos t\u00e9cnicos de inteligencia (Special Competitive Studies Project 2025, 17\u201318).<\/p>\n\n\n\n<p><strong>Debilidades conceptuales y metodol\u00f3gicas<\/strong><\/p>\n\n\n\n<p>A pesar de su sofisticaci\u00f3n anal\u00edtica, el informe presenta varias limitaciones que deben se\u00f1alarse con rigor acad\u00e9mico. Cuatro de ellas son especialmente relevantes: una sobre el alcance ontol\u00f3gico de la IA ag\u00e9ntica, otra sobre la \u00e9tica instrumental de la manipulaci\u00f3n emocional, una tercera sobre la fiabilidad epistemol\u00f3gica de la IA como agente operativo y una cuarta sobre la falta de an\u00e1lisis pol\u00edtico de la gobernanza interinstitucional.<\/p>\n\n\n\n<p><strong>Ambig\u00fcedad conceptual del oficial digital<\/strong><\/p>\n\n\n\n<p>El documento define al Digital Case Officer como un sistema ag\u00e9ntico capaz de planificar y ejecutar tareas de reclutamiento con m\u00ednima intervenci\u00f3n humana. Sin embargo, no ofrece una definici\u00f3n operativa precisa de agencia en el contexto de inteligencia. La noci\u00f3n de autonom\u00eda se confunde con la de automatizaci\u00f3n avanzada: un algoritmo que ejecuta secuencias de di\u00e1logo o identifica patrones de vulnerabilidad no es, en sentido filos\u00f3fico, un agente moral ni un decisor aut\u00f3nomo. Autores como Floridi (2023) y Gunkel (2024) advierten que atribuir agencia a sistemas algor\u00edtmicos puede generar ilusiones de responsabilidad desplazada, donde los errores t\u00e9cnicos se interpretan como decisiones de una entidad inexistente. El informe incurre parcialmente en este antropomorfismo tecnol\u00f3gico, lo que debilita su fundamento te\u00f3rico sobre el control humano y la responsabilidad \u00e9tica. Una reformulaci\u00f3n deber\u00eda distinguir entre autonom\u00eda funcional, entendida como capacidad de operar sin supervisi\u00f3n inmediata, y autonom\u00eda decisional, reservando esta \u00faltima exclusivamente al ser humano.<\/p>\n\n\n\n<p><strong>La \u00e9tica de la manipulaci\u00f3n emocional<\/strong><\/p>\n\n\n\n<p>El informe justifica el uso de affective computing y modelos conversacionales capaces de detectar y responder a emociones humanas para fortalecer la empat\u00eda simulada del oficial digital (Special Competitive Studies Project 2025, 15\u201316). Si bien reconoce los riesgos de manipulaci\u00f3n, sugiere que el problema puede mitigarse mediante l\u00edneas rojas \u00e9ticas y adecuada supervisi\u00f3n. No obstante, esta soluci\u00f3n resulta insuficiente. La psicolog\u00eda moral y la \u00e9tica de la persuasi\u00f3n, desde Kant hasta Habermas, sostienen que simular afecto con fines instrumentales constituye una forma de enga\u00f1o que instrumentaliza la dignidad humana. Aun si se respetara el principio de MHC, la creaci\u00f3n de v\u00ednculos emocionales falsos mediante algoritmos erosiona la confianza, fundamento mismo de la relaci\u00f3n entre oficial y fuente. Una \u00e9tica del espionaje digital deber\u00eda incorporar expl\u00edcitamente l\u00edmites deontol\u00f3gicos que proh\u00edban la simulaci\u00f3n afectiva con fines coercitivos o de manipulaci\u00f3n psicol\u00f3gica profunda.<\/p>\n\n\n\n<p><strong>Fiabilidad epistemol\u00f3gica y sesgos de la IA<\/strong><\/p>\n\n\n\n<p>Otro problema subestimado es la fiabilidad epistemol\u00f3gica de los modelos generativos como herramientas de reclutamiento. El informe reconoce la existencia de cajas negras algor\u00edtmicas que dificultan explicar por qu\u00e9 la IA selecciona un objetivo determinado (Special Competitive Studies Project 2025, 23\u201324), pero no desarrolla las implicaciones operativas de esa opacidad. En inteligencia, la trazabilidad y la validaci\u00f3n de fuentes son pilares del proceso anal\u00edtico. Si el sistema no puede justificar por qu\u00e9 considera reclutable a un individuo, por ejemplo, si interpreta err\u00f3neamente un gesto ir\u00f3nico en redes sociales como disidencia, el riesgo de falsos positivos es inmenso. Adem\u00e1s, los modelos de lenguaje est\u00e1n entrenados sobre datos que reflejan sesgos culturales, raciales o ideol\u00f3gicos. En el contexto HUMINT, tales sesgos podr\u00edan conducir a la persecuci\u00f3n selectiva de grupos o individuos inocentes. El informe debi\u00f3 profundizar en los mecanismos de auditor\u00eda algor\u00edtmica y control de sesgos que garanticen una epistemolog\u00eda verificable de la IA operativa.<\/p>\n\n\n\n<p><strong>Vac\u00edos de gobernanza interinstitucional<\/strong><\/p>\n\n\n\n<p>La cuarta debilidad reside en la insuficiente problematizaci\u00f3n pol\u00edtica del marco de gobernanza. Aunque el informe propone medidas de supervisi\u00f3n, auditor\u00edas, responsables humanos designados e informes al Congreso, no examina las tensiones burocr\u00e1ticas y jurisdiccionales que hist\u00f3ricamente han obstaculizado la cooperaci\u00f3n entre agencias como la <a href=\"https:\/\/www.cia.gov\/\" target=\"_blank\" rel=\"noopener\" title=\"CIA\">CIA<\/a>, el FBI y la <a href=\"https:\/\/www.nsa.gov\/\" target=\"_blank\" rel=\"noopener\" title=\"NSA\">NSA<\/a>. La sugerencia de ofrecer \u201cHUMINT as a Service\u201d para otras agencias es innovadora, pero no se analiza c\u00f3mo se resolver\u00edan los conflictos de autoridad, control de datos o responsabilidad legal ante errores operativos (Special Competitive Studies Project 2025, 29\u201330). Tampoco se contempla el papel de aliados extranjeros en la compartici\u00f3n de tecnolog\u00edas sensibles. En un contexto de creciente desconfianza transatl\u00e1ntica y vigilancia cibern\u00e9tica, estas omisiones son significativas. Cualquier marco de inteligencia artificial aplicado a HUMINT debe incorporar un an\u00e1lisis institucional robusto sobre c\u00f3mo preservar la rendici\u00f3n de cuentas dentro de una comunidad caracterizada por la compartimentaci\u00f3n y el secreto.<\/p>\n\n\n\n<p><strong>El impacto psicol\u00f3gico en los agentes humanos<\/strong><\/p>\n\n\n\n<p>Una debilidad adicional, apenas insinuada, es la falta de atenci\u00f3n al impacto psicol\u00f3gico de la hibridaci\u00f3n humano m\u00e1quina sobre los propios oficiales de caso. El informe alude brevemente al peso psicol\u00f3gico del espionaje en un entorno de transparencia total (Special Competitive Studies Project 2025, 17\u201318), pero no analiza c\u00f3mo la dependencia operativa de algoritmos puede afectar la identidad profesional, la moral o el juicio \u00e9tico del oficial. Estudios recientes en neuroergonom\u00eda y psicolog\u00eda del trabajo demuestran que la sobreautomatizaci\u00f3n reduce la confianza en el propio criterio y fomenta una delegaci\u00f3n pasiva de la responsabilidad moral (Cummings 2024; Krupnikov 2025). En un oficio donde el discernimiento moral y la intuici\u00f3n interpersonal son esenciales, tal degradaci\u00f3n cognitiva tendr\u00eda consecuencias graves. La gobernanza de la IA en inteligencia deber\u00eda contemplar programas de resiliencia psicol\u00f3gica y entrenamiento \u00e9tico para preservar la autonom\u00eda moral de los oficiales.<\/p>\n\n\n\n<p><strong>Implicaciones estrat\u00e9gicas y \u00e9ticas<\/strong><\/p>\n\n\n\n<p>M\u00e1s all\u00e1 de sus debilidades, el informe plantea preguntas fundamentales sobre la ontolog\u00eda del espionaje en el siglo XXI. Si la IA puede simular empat\u00eda, gestionar identidades virtuales y ejecutar tareas de persuasi\u00f3n, \u00bfsigue siendo la HUMINT una relaci\u00f3n humana? El documento responde afirmativamente, defendiendo la noci\u00f3n del equipo humano m\u00e1quina. Sin embargo, el riesgo de deshumanizaci\u00f3n es real: cuanto m\u00e1s eficaz sea la IA en emular la confianza, m\u00e1s f\u00e1cil ser\u00e1 reemplazar al humano en las etapas iniciales de contacto. Este dilema \u00e9tico recuerda las advertencias de Shulman (2023), quien argumenta que la automatizaci\u00f3n de la interacci\u00f3n moral puede generar alienaci\u00f3n operacional, un estado en el que los agentes ya no perciben las consecuencias humanas de sus acciones.<\/p>\n\n\n\n<p>Desde una perspectiva estrat\u00e9gica, el modelo propuesto por el SCSP redefine la escala y el ritmo de las operaciones HUMINT. Un solo oficial, asistido por una red de IA, podr\u00eda interactuar con cientos de objetivos en paralelo, multiplicando exponencialmente el alcance del espionaje. Pero esta misma escalabilidad erosiona los controles tradicionales basados en la supervisi\u00f3n directa. En un entorno donde la velocidad de interacci\u00f3n supera la capacidad humana de revisi\u00f3n, el riesgo de abusos o errores sist\u00e9micos aumenta. La historia de la inteligencia demuestra que los fallos no provienen solo de malas intenciones, sino de la combinaci\u00f3n de exceso de confianza tecnol\u00f3gica y d\u00e9ficit de deliberaci\u00f3n moral.<\/p>\n\n\n\n<p><strong>Hacia una epistemolog\u00eda prudente de la inteligencia artificial<\/strong><\/p>\n\n\n\n<p>La integraci\u00f3n de IA en la pr\u00e1ctica del espionaje exige una nueva epistemolog\u00eda prudente, basada en tres principios rectores: transparencia algor\u00edtmica, responsabilidad humana y proporcionalidad moral.<\/p>\n\n\n\n<p>En primer lugar, la transparencia implica desarrollar sistemas explicables cuya l\u00f3gica decisional pueda auditarse en tiempo real. Sin explicabilidad, la confianza institucional se convierte en fe ciega. En segundo lugar, la responsabilidad humana debe ser indivisible. El principio de MHC no debe reducirse a un tr\u00e1mite de aprobaci\u00f3n, sino concebirse como una forma de coautor\u00eda moral entre humano y m\u00e1quina, donde el primero mantiene dominio sobre el prop\u00f3sito y el significado de la acci\u00f3n. En tercer lugar, la proporcionalidad exige evaluar el costo moral de cada innovaci\u00f3n: la capacidad de hacer m\u00e1s no justifica autom\u00e1ticamente hacerlo todo.<\/p>\n\n\n\n<p>Adoptar estos principios requerir\u00e1 reformas legales y culturales. A nivel normativo, el Congreso y el Poder Ejecutivo deber\u00edan actualizar la Orden Ejecutiva 12333 para definir expl\u00edcitamente la naturaleza jur\u00eddica de los sistemas aut\u00f3nomos de inteligencia y su relaci\u00f3n con los derechos civiles de los ciudadanos estadounidenses. A nivel institucional, las academias de inteligencia deber\u00edan incorporar formaci\u00f3n en \u00e9tica de IA y filosof\u00eda de la tecnolog\u00eda, equipando a los futuros oficiales con herramientas cr\u00edticas para resistir la automatizaci\u00f3n acr\u00edtica del juicio moral.<\/p>\n\n\n\n<p>Finalmente, el debate sobre el Digital Case Officer invita a reconsiderar la esencia misma del espionaje. Si el futuro de la inteligencia es h\u00edbrido, su \u00e9xito no depender\u00e1 solo de la potencia computacional, sino de la capacidad de mantener el n\u00facleo humanista del oficio. Como advirti\u00f3 Richard Moore, director del MI6, \u201cla relaci\u00f3n que permite que una persona conf\u00ede genuinamente en otra sigue siendo obstinadamente humana\u201d (Moore 2023). Esta afirmaci\u00f3n resume la paradoja que el informe del SCSP plantea sin resolver plenamente: la tecnolog\u00eda puede ampliar la inteligencia, pero solo el ser humano puede darle prop\u00f3sito moral.<\/p>\n\n\n\n<p>~ <a href=\"https:\/\/www.linkedin.com\/in\/constantinpoindexter\" target=\"_blank\" rel=\"noopener\" title=\"C. Constantin Poindexter, M.A. en Inteligencia, Certificado de Posgrado en Contrainteligencia, J.D., certificaci\u00f3n CISA\/NCISS OSINT, Certificaci\u00f3n DoD\/DoS BFFOC\">C. Constantin Poindexter, M.A. en Inteligencia, Certificado de Posgrado en Contrainteligencia, J.D., certificaci\u00f3n CISA\/NCISS OSINT, Certificaci\u00f3n DoD\/DoS BFFOC<\/a><\/p>\n\n\n\n<p><strong>Referencias<\/strong><\/p>\n\n\n\n<p>Cummings, Mary L. 2024. \u201cAutomation and the Erosion of Human Judgment in Defense Systems.\u201d Journal of Military Ethics 23 (2): 101\u2013120.<\/p>\n\n\n\n<p>Floridi, Luciano. 2023. The Ethics of Artificial Agents. Oxford: Oxford University Press.<\/p>\n\n\n\n<p>Gunkel, David. 2024. The Machine Question Revisited: AI and Moral Agency. Cambridge, MA: MIT Press.<\/p>\n\n\n\n<p>Krupnikov, Andrei. 2025. \u201cPsychological Implications of Human Machine Teaming in Intelligence Work.\u201d Intelligence and National Security 40 (3): 215\u2013233.<\/p>\n\n\n\n<p>Moore, Richard. 2023. \u201cSpeech by Sir Richard Moore, Head of SIS.\u201d London: UK Government.<\/p>\n\n\n\n<p>Shulman, Peter. 2023. \u201cOperational Alienation in Autonomous Warfare.\u201d Ethics &amp; International Affairs 37 (4): 442\u2013460.<\/p>\n\n\n\n<p>Special Competitive Studies Project. 2025. The Digital Case Officer: Reimagining Espionage with Artificial Intelligence. Washington, D.C.: SCSP Press.<\/p>\n","protected":false},"excerpt":{"rendered":"<p>El informe The Digital Case Officer: Reimagining Espionage with Artificial Intelligence representa una de las m\u00e1s ambiciosas reflexiones contempor\u00e1neas sobre la convergencia entre la inteligencia humana (HUMINT) y la inteligencia artificial (IA). Publicado por el Special Competitive Studies Project en 2025, el documento postula que la comunidad de inteligencia estadounidense se encuentra ante un cambio &hellip; <\/p>\n<p class=\"link-more\"><a href=\"https:\/\/constantinpoindexter.com\/blog\/nueva-frontera-para-la-inteligencia-humana-en-la-era-de-la-i-a\/\" class=\"more-link\">Continue reading<span class=\"screen-reader-text\"> &#8220;Nueva frontera para la inteligencia humana en la era de la I.A.&#8221;<\/span><\/a><\/p>\n","protected":false},"author":2,"featured_media":533,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[1],"tags":[85,139,135,88,184,136,140,157,142,212],"class_list":["post-532","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-uncategorized","tag-c-constantin-poindexter","tag-contraespionaje","tag-contrainteligencia","tag-dni","tag-espana","tag-espia","tag-espionaje","tag-humint","tag-inteligencia","tag-repubilca-dominicana"],"aioseo_notices":[],"rttpg_featured_image_url":{"full":["https:\/\/constantinpoindexter.com\/blog\/wp-content\/uploads\/2025\/10\/HUMINT-en-la-era-de-A.I.jpg",1280,853,false],"landscape":["https:\/\/constantinpoindexter.com\/blog\/wp-content\/uploads\/2025\/10\/HUMINT-en-la-era-de-A.I.jpg",1280,853,false],"portraits":["https:\/\/constantinpoindexter.com\/blog\/wp-content\/uploads\/2025\/10\/HUMINT-en-la-era-de-A.I.jpg",1280,853,false],"thumbnail":["https:\/\/constantinpoindexter.com\/blog\/wp-content\/uploads\/2025\/10\/HUMINT-en-la-era-de-A.I-150x150.jpg",150,150,true],"medium":["https:\/\/constantinpoindexter.com\/blog\/wp-content\/uploads\/2025\/10\/HUMINT-en-la-era-de-A.I-300x200.jpg",300,200,true],"large":["https:\/\/constantinpoindexter.com\/blog\/wp-content\/uploads\/2025\/10\/HUMINT-en-la-era-de-A.I-1024x682.jpg",525,350,true],"1536x1536":["https:\/\/constantinpoindexter.com\/blog\/wp-content\/uploads\/2025\/10\/HUMINT-en-la-era-de-A.I.jpg",1280,853,false],"2048x2048":["https:\/\/constantinpoindexter.com\/blog\/wp-content\/uploads\/2025\/10\/HUMINT-en-la-era-de-A.I.jpg",1280,853,false],"twentyseventeen-featured-image":["https:\/\/constantinpoindexter.com\/blog\/wp-content\/uploads\/2025\/10\/HUMINT-en-la-era-de-A.I.jpg",1280,853,false],"twentyseventeen-thumbnail-avatar":["https:\/\/constantinpoindexter.com\/blog\/wp-content\/uploads\/2025\/10\/HUMINT-en-la-era-de-A.I-100x100.jpg",100,100,true]},"rttpg_author":{"display_name":"C. Constantin Poindexter","author_link":"https:\/\/constantinpoindexter.com\/blog\/author\/constantin-poindexter\/"},"rttpg_comment":0,"rttpg_category":"<a href=\"https:\/\/constantinpoindexter.com\/blog\/category\/uncategorized\/\" rel=\"category tag\">Uncategorized<\/a>","rttpg_excerpt":"El informe The Digital Case Officer: Reimagining Espionage with Artificial Intelligence representa una de las m\u00e1s ambiciosas reflexiones contempor\u00e1neas sobre la convergencia entre la inteligencia humana (HUMINT) y la inteligencia artificial (IA). Publicado por el Special Competitive Studies Project en 2025, el documento postula que la comunidad de inteligencia estadounidense se encuentra ante un cambio&hellip;","_links":{"self":[{"href":"https:\/\/constantinpoindexter.com\/blog\/wp-json\/wp\/v2\/posts\/532","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/constantinpoindexter.com\/blog\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/constantinpoindexter.com\/blog\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/constantinpoindexter.com\/blog\/wp-json\/wp\/v2\/users\/2"}],"replies":[{"embeddable":true,"href":"https:\/\/constantinpoindexter.com\/blog\/wp-json\/wp\/v2\/comments?post=532"}],"version-history":[{"count":2,"href":"https:\/\/constantinpoindexter.com\/blog\/wp-json\/wp\/v2\/posts\/532\/revisions"}],"predecessor-version":[{"id":536,"href":"https:\/\/constantinpoindexter.com\/blog\/wp-json\/wp\/v2\/posts\/532\/revisions\/536"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/constantinpoindexter.com\/blog\/wp-json\/wp\/v2\/media\/533"}],"wp:attachment":[{"href":"https:\/\/constantinpoindexter.com\/blog\/wp-json\/wp\/v2\/media?parent=532"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/constantinpoindexter.com\/blog\/wp-json\/wp\/v2\/categories?post=532"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/constantinpoindexter.com\/blog\/wp-json\/wp\/v2\/tags?post=532"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}