Firmas

Opinión | La inteligencia artificial en la geopolítica mundial: nueva frontera de poder (I)

Opinión | La inteligencia artificial en la geopolítica mundial: nueva frontera de poder (I)
La inteligencia artificial redefine el poder global: una carrera tecnológica con implicaciones militares, cibernéticas y geopolíticas que transforma el orden internacional. Es lo que explica en esta primera entrega Jorge Carrera, abogado, exmagistrado, exjuez de enlace de España en Washington y consultor internacional. Imagen: Confilegal.
07/4/2025 05:35
|
Actualizado: 07/4/2025 00:24
|

En mayo de 2017, el joven prodigio chino de go, Ke Jie, se sentó frente a un tablero ancestral para enfrentar a un contrincante inusual: AlphaGo, la inteligencia artificial de Google.

Aquella derrota simbólica ante la máquina fue descrita en China como su “momento Sputnik”, un despertar tecnológico que aceleró sus ambiciones de liderazgo en inteligencia artificial (IA).

Hoy, poco menos de una década después, escenas muy distintas –drones autónomos sobrevolando zonas de conflicto o algoritmos detectando ciberataques en fracciones de segundo– demuestran que la IA se ha convertido en un nuevo eje de poder global.

La IA ya no es ciencia ficción ni asunto exclusivo de laboratorios: es una arena de competencia geopolítica. Grandes potencias y naciones emergentes invierten sumas sin precedentes en su desarrollo, integrándola en armamento, sistemas de seguridad, espionaje y en estrategias diplomáticas.

Este trabajo pretende analizar de forma rigurosa y narrativa cómo la IA está reconfigurando las relaciones internacionales.

Examinaremos la carrera tecnológica global que enfrenta a Estados Unidos, China, Europa y otros actores; las aplicaciones militares que difuminan la línea entre ciencia y ficción bélica; la transformación de la ciberseguridad ante ataques y defensas automatizados; la creciente influencia de la IA en tratados, alianzas y tensiones internacionales; el rol (o ausencia) de una gobernanza multilateral para la IA; y, finalmente, varios escenarios de futuro sobre cómo estas tecnologías podrían alterar el equilibrio mundial en las próximas dos décadas.

Al tejer análisis y testimonios de expertos, vislumbramos un panorama complejo en el que la IA promete ventajas estratégicas pero plantea dilemas éticos y de seguridad global.

El surgimiento de la IA como factor geopolítico recuerda a revoluciones tecnológicas previas –de la pólvora a la energía nuclear– que redefinieron el poder.

Pero a diferencia de aquellas, la IA evoluciona a ritmo vertiginoso y penetra en casi todos los ámbitos de la sociedad. ¿Estamos ante una nueva guerra fría tecnológica o a las puertas de una cooperación inédita para guiar este avance?

A continuación, desgranamos las múltiples facetas de esta carrera por el futuro, en busca de respuestas y con la invitación a reflexionar sobre el destino común en la era de las máquinas inteligentes.

«El surgimiento de la IA como factor geopolítico recuerda a revoluciones tecnológicas previas –de la pólvora a la energía nuclear– que redefinieron el poder».

1. La carrera tecnológica global por la IA

En pleno siglo XXI, la inteligencia artificial se ha convertido en el núcleo de una competición tecnológica global.

Las dos mayores economías del planeta, Estados Unidos y China, se disputan la supremacía en IA, conscientes de que quien lidere en esta área obtendrá ventajas económicas y militares decisivas. «Las tecnologías de IA serán la base de la economía de la innovación y una fuente de poder enorme para los países que las dominen» advirtió un informe de la Comisión de Seguridad Nacional de EE.UU.​

Este mismo informe alertó que, si Estados Unidos no actúa con celeridad, podría perder su posición de liderazgo en IA frente a China en la próxima década​. No es retórica vacía: en 2023, Estados Unidos atrajo 67.200 millones de dólares en financiación privada de IA, casi nueve veces más que China (7.800 millones)​.

Además, las empresas y laboratorios estadounidenses lanzaron 61 de los modelos de IA más avanzados ese año, superando con creces los 15 presentados por China​.

Estas cifras subrayan una realidad: por ahora, EE.UU. mantiene ventaja, respaldado por su vibrante ecosistema de empresas tecnológicas, capital de riesgo y universidades punteras.

China, sin embargo, no se resigna al segundo puesto. Pekín lleva años integrando la IA en su estrategia nacional, invirtiendo miles de millones en investigación y fomentando campeones tecnológicos locales.

Tras el “momento Sputnik” que supuso el triunfo de AlphaGo sobre el jugador chino más prominente, el gobierno lanzó en 2017 un ambicioso plan para ser líder mundial en IA para 2030.

Hoy, China encabeza el mundo en patentes de IA y publicaciones científicas, y empresas como Baidu, Alibaba o Huawei compiten en áreas que van desde la IA generativa hasta la robótica​.

No obstante, persisten brechas: el sector privado chino recibe menos inversión internacional que Silicon Valley y enfrenta limitaciones de acceso a semiconductores de punta debido a sanciones.

Aun así, la rivalidad sino-estadounidense se ha endurecido, con Washington imponiendo controles a la exportación de chips avanzados y vetando a proveedores chinos, mientras que Pekín busca la autosuficiencia tecnológica. Muchos analistas comparan esta dinámica con una “guerra fría” tecnológica en que la IA y los chips son las nuevas armas estratégicas.

La Unión Europea, por su parte, pugna de lejos por no quedar relegada en esta carrera. Históricamente fuerte en investigación básica, Europa ha visto cómo apenas capta un 6% de la financiación global para «startups» de IA, frente al 61% que acapara EE. UU.​

Conscientes del riesgo de quedar rezagados, los líderes europeos han comenzado a movilizar grandes inversiones. La UE prepara un fondo “InvestAI” de 200.000 millones de euros para infraestructura, investigación y startups en IA​.

Países como Francia han anunciado paquetes de más de 100.000 millones de euros para impulsar centros de datos, computación de alto rendimiento y startups nacionales​. Un ejemplo es la francesa Mistral AI, cuyo nuevo modelo conversacional “Le Chat” busca competir con los de Silicon Valley​.

Europa apuesta también por ”fábricas de IA” y laboratorios abiertos que permitan a sus empresas entrenar algoritmos sin depender de la nube extranjera​

Sin embargo, la UE enfrenta su propio dilema: quiere promover la IA, pero a la vez lidera en regulación tecnológica. Su Reglamento sobre la IA (AI Act) quiere imponer estrictas normas de transparencia y prohibiciones (por ejemplo, vetando la puntuación social al estilo chino)​.

«El bloque anglosajón formado por EE.UU., Reino Unido y Australia (AUKUS), establecido en 2021, incluye en su “Pilar II” el intercambio de capacidades avanzadas en IA, ciberseguridad y autonomía militar»​.

Si bien estas medidas buscan un desarrollo ético y confiable, algunas voces temen que un exceso regulatorio frene la innovación europea​. Bruselas ha dado señales de flexibilizar ciertas reglas en su aplicación para no ahuyentar talento e inversión, en un delicado equilibrio entre seguridad y competitividad.

Más allá de EE.UU., China y Europa, otras naciones emergen en el panorama de la IA. India, con su vasto capital humano tecnológico, se ha posicionado en cuarto lugar global en un índice reciente “Global Vibrancy Tool”, destacando en investigación académica​. Reino Unido (tercero en dicho índice) alberga una próspera escena de IA y organizó en 2023 la primera cumbre global sobre seguridad en IA​.

Es también interesante comprobar como España ocupa el decimoprimer lugar, por delante de una gran parte de países europeos, salvo Francia y Alemania. Países como Emiratos Árabes Unidos invierten fuertemente para convertirse en polos de IA (el UAE ya figura quinto globalmente gracias a inversiones públicas millonarias)​. También Corea del Sur, Japón, Alemania, Francia y Singapur están en el top 10, impulsando investigación, talento e infraestructura.​

En Latinoamérica, naciones como Brasil desarrollan estrategias incipientes para aplicar IA en industria y servicios, mientras que Israel destaca en IA militar y «startups» especializadas. Incluso pequeños estados buscan su nicho: por ejemplo, Estonia es pionera en gobierno digital con IA, y Uruguay o Finlandia han lanzado programas educativos masivos en IA.

En suma, la carrera es global y no exclusiva de dos superpotencias; se perfila más bien como un ecosistema multipolar donde alianzas y colaboraciones también cuentan.

De hecho, han surgido alianzas estratégicas para la cooperación (o contención) tecnológica. El bloque anglosajón formado por EE.UU., Reino Unido y Australia (AUKUS), establecido en 2021, incluye en su “Pilar II” el intercambio de capacidades avanzadas en IA, ciberseguridad y autonomía militar​.

En 2024, los socios de AUKUS ya realizaron pruebas conjuntas de drones autónomos equipados con IA para detectar y neutralizar objetivos, demostrando un inédito nivel de interoperabilidad tecnológica​.

Por otro lado, coaliciones como la Asociación Global en IA (GPAI) –impulsada por potencias democráticas– buscan compartir mejores prácticas en IA ética, aunque sin la participación de China. En contraste, China promueve su propia esfera de influencia tecnológica a través de la Iniciativa de la Franja y la Ruta Digital, exportando infraestructura de IA y acuerdos de cooperación a países en desarrollo.

Cada bloque persigue ventajas: desde asegurar cadenas de suministro de semiconductores hasta ganar apoyos en organismos internacionales sobre normas de IA.

La competencia es feroz pero también hay áreas de interés común, como la investigación en IA médica o climática, que han propiciado proyectos colaborativos entre científicos de distintos países pese a las rivalidades geopolíticas.

En resumen, la IA se ha convertido en la pieza central del tablero geopolítico contemporáneo. Los niveles de inversión están alcanzando cifras históricas –con planes como el proyecto “Stargate” que en EE.UU. movilizaría 500.000 millones de dólares para infraestructura de IA​ – y las políticas públicas se adaptan para fomentar la innovación sin perder de vista la seguridad.

Estamos ante una carrera comparable a la espacial del siglo XX, pero con más actores y frentes simultáneos: económico, militar, normativo y cultural. Como señaló Kai-Fu Lee, experto sino-estadounidense en IA, esta tecnología provocará “implicaciones tanto positivas como inquietantes” para la política global.

La pregunta que planea es si esta competencia desembocará en un progreso compartido o en una división aún mayor entre ganadores y rezagados del futuro.

«La IA se ha convertido en la pieza central del tablero geopolítico contemporáneo. Los niveles de inversión están alcanzando cifras históricas –con planes como el proyecto “Stargate” que en EE.UU. movilizaría 500.000 millones de dólares para infraestructura de IA​ – y las políticas públicas se adaptan para fomentar la innovación sin perder de vista la seguridad».

2. IA militar y de defensa: armas autónomas y vigilancia

Los avances en IA están transformando la naturaleza de la guerra y la defensa, dando lugar a armas y sistemas que hasta hace poco pertenecían a la ciencia ficción. Un claro ejemplo son las armas autónomas letales –conocidas popularmente como “robots asesinos”– que pueden seleccionar y atacar objetivos sin intervención humana directa​.

Aunque aún no existe consenso sobre su definición exacta, en términos generales se trata de sistemas que, una vez activados, “identifican blancos y aplican la fuerza sin intervención humana”

Hoy en día, varias potencias desarrollan prototipos de drones, vehículos terrestres o torretas armadas con estos niveles de autonomía. Esto ha generado un intenso debate ético y jurídico: ¿debe una máquina tener la decisión de vida o muerte sobre un ser humano? ¿Cómo garantizar que respeten el Derecho Internacional Humanitario o distingan entre combatientes y civiles?

En el terreno militar, la IA ya se emplea en sistemas de armas “semi-autónomos”. Por ejemplo, misiles con algoritmos de visión por computador que los guían hacia blancos concretos, o drones de patrulla capaces de reconocer patrones de camuflaje.

Durante el conflicto de Libia en 2020 se reportó posiblemente el primer ataque autónomo de un dron contra soldados en retirada, lo que encendió las alarmas sobre este tipo de armamento. Más recientemente, en la guerra de Ucrania, tanto Kiev como Moscú han incorporado IA en sus arsenales.

Ucrania está desplegando “enjambres” de drones kamikaze con sistemas de IA para evadir las contramedidas electrónicas rusas y alcanzar objetivos sin teleoperador​

Según un viceministro ucraniano de Defensa, varias decenas de soluciones de IA domésticas ya se han entregado a las fuerzas armadas para mejorar la autonomía de sus drones. Estos sistemas permiten a pequeños drones FPV (de vista en primera persona) seguir volando y encontrar blancos aun en zonas donde el GPS y las comunicaciones están bloqueados por interferencias enemigas​.

En respuesta, Rusia ha comenzado a equipar sus propios drones de ataque Shahed-136 con IA para hacerlos más “inteligentes” –capaces de esquivar defensas ucranianas e identificar infraestructuras clave como centrales eléctricas–, según reveló el embajador de Ucrania ante la UE a finales de 2024.

Si bien estos Shahed mejorados no constituyen enjambres plenamente autónomos, muestran la fuerte apuesta rusa por desarrollar enjambres de drones con IA que saturen las defensas enemigas. Analistas estiman que, de no mediar acuerdos, en pocos años podríamos ver en combate enjambres coordinados de cientos de drones autónomos, lo que cambiaría radicalmente la faz del campo de batalla.

Estados Unidos, por su parte, integra agresivamente la IA en su planificación militar. El Pentágono ha probado con éxito que un algoritmo de IA pueda pilotar un caza de combate F-16 en vuelo real, demostrando que un jet puede ser controlado autónomamente por IA durante horas.

Este experimento, realizado en 2022 bajo el programa ACE de DARPA, evidenció que los agentes de IA pueden maniobrar un avión de alto rendimiento y reaccionar en dogfights (combates aéreos), algo impensable hace unos años​.

«Los avances en IA están transformando la naturaleza de la guerra y la defensa, dando lugar a armas y sistemas que hasta hace poco pertenecían a la ciencia ficción. Un claro ejemplo son las armas autónomas letales –conocidas popularmente como “robots asesinos”– que pueden seleccionar y atacar objetivos sin intervención humana directa​».

La visión a futuro del Pentágono incluye escuadrillas mixtas de cazas tripulados acompañados por “wingmen” drones controlados por IA, capaces de adelantarse en misiones arriesgadas.

También se exploran sistemas logísticos autónomos (camiones o buques no tripulados) y algoritmos para ayuda en toma de decisiones tácticas, analizando en segundos escenarios que tomarían horas a un estado mayor humano. La promesa es aumentar la velocidad y precisión operativa, reduciendo riesgos para tropas propias.

Pero a la par surge el riesgo de “sesgo de automatización”: confiar ciegamente en recomendaciones de IA podría ser peligroso si la información es errónea o el enemigo logra engañar al sistema.​

Otro campo revolucionado por la IA es la vigilancia y el reconocimiento militar. Las fuerzas armadas y agencias de inteligencia emplean IA para procesar ingentes cantidades de datos de sensores, imágenes satelitales y comunicaciones.

Por ejemplo, el controvertido Proyecto Maven del Departamento de Defensa de EE. UU. utilizó algoritmos de visión artificial para analizar videos de drones y detectar objetivos insurgentes con más rapidez que los analistas humanos.

Si bien Google se retiró del proyecto tras protestas de sus empleados, el programa continuó y se considera un precursor de cómo la IA puede ayudar a filtrar información crítica en tiempo real durante operaciones.

En el ámbito de vigilancia fronteriza y antiterrorista, proliferan sistemas de reconocimiento facial y análisis de video alimentados por IA, capaces de identificar sospechosos o comportamientos inusuales en multitudes.

China ha desplegado redes masivas de cámaras inteligentes que, vinculadas a bases de datos y algoritmos, monitorizan a su población casi ubicuamente –especialmente en regiones como Xinjiang–​.

Esta exportación de tecnología de “vigilancia con IA” a más de 60 países demuestra cómo la frontera entre uso militar y civil se difumina: muchos gobiernos autoritarios adoptan estas herramientas para control interno y represión, equiparando la estabilidad del régimen a una forma de seguridad nacional.

Empresas chinas como Huawei o Hikvision han proveído sistemas de ciudad inteligente (con componentes de IA) a decenas de naciones, a menudo con créditos blandos del gobierno chino​, lo que incrementa la influencia de Pekín y suscita preocupación en Occidente por la posible transferencia de datos sensibles de esos países a China.

La incorporación de IA en defensa plantea profundos dilemas éticos y estratégicos.

Por un lado, los defensores argumentan que una IA bien diseñada puede reducir daños colaterales, al ser más precisa que un humano en la identificación de blancos legítimos, o salvar vidas de soldados al permitir operaciones a distancia.

Por otro lado, existe el temor a perder el “control humano significativo” sobre el uso de la fuerza. Un error de un arma autónoma –por fallo del sensor o ataque informático– podría tener consecuencias trágicas o incluso escalar un conflicto inadvertidamente. Además, la mera posibilidad de que “robots” decidan matar conmociona la conciencia pública y muchos expertos la consideran una línea roja moral.

Estas preocupaciones han llegado a la arena diplomática: en diciembre de 2024, la Asamblea General de la ONU aprobó una resolución sobre sistemas de armas autónomas letales con 166 votos a favor y solo 3 en contra (Rusia, Bielorrusia y Corea del Norte)​. La resolución aboga por explorar un marco de regulación internacional que prohíba ciertos tipos de armas autónomas y regule otras​, enviando un claro mensaje de alarma.

Paralelamente, desde 2014 se discute el tema en la Convención de Armas Convencionales de la ONU, aunque el proceso allí es lento por requerir consenso (justamente bloqueado por potencias como EE.UU. y Rusia que recelan de un tratado vinculante)​.

No obstante, el apoyo abrumador en la Asamblea muestra un creciente clamor global por establecer límites antes de que la proliferación de estas armas sea irreversible.

Otro desafío es jurídico: si un dron autónomo cometiera una violación al derecho de guerra, ¿quién sería responsable? ¿El comandante que lo desplegó, el programador que escribió el código, el Estado fabricante, o el propio sistema (que obviamente no puede rendir cuentas)?

«La IA ofrece a los militares nuevas capacidades formidables –desde soldados artificiales hasta ojos electrónicos omnipresentes– pero también amenaza con desencadenar una carrera armamentista potencialmente desestabilizadora».

La ausencia de un “humano en el bucle” complica aplicar doctrinas legales existentes. De ahí la importancia de acordar principios como la responsabilidad y trazabilidad en la implementación de IA militar, algo que por ejemplo la OTAN ha reconocido al adoptar en 2021 seis principios de uso responsable de IA en defensa (legalidad, responsabilidad, explicabilidad, etc.)​.

En suma, la IA ofrece a los militares nuevas capacidades formidables –desde soldados artificiales hasta ojos electrónicos omnipresentes– pero también amenaza con desencadenar una carrera armamentista potencialmente desestabilizadora.

Es un terreno donde la ventaja tecnológica puede ser pasajera: hoy EE.UU. lleva la delantera en integración de IA bélica, pero China progresa velozmente y otros actores (Israel, Rusia, incluso Turquía con sus drones) aportan innovaciones.

Sin mecanismos de control, el riesgo es que proliferen sistemas autónomos baratos (como drones suicidas con IA) en manos de ejércitos irregulares o grupos terroristas, cambiando las reglas del juego estratégico.

La humanidad se encuentra así en una encrucijada similar a la de los albores de la era nuclear: deberá decidir si establece límites a tiempo o si abraza sin cortapisas una nueva generación de armas inteligentes. El resultado tendrá profundas implicaciones para la paz y la seguridad internacionales.

3. Transformaciones en la ciberseguridad y ciberinteligencia

En el ciberespacio, campo de batalla invisible pero crítico, la inteligencia artificial está revolucionando tanto las tácticas de ataque como las de defensa de los Estados. Gobiernos y actores maliciosos por igual emplean IA para potenciar sus operaciones, iniciando una carrera de “espada y escudo” digital que redefine la soberanía digital y la seguridad nacional.

Del lado ofensivo, las ciberarmas impulsadas por IA multiplican el alcance y la sofisticación de los ataques. Algoritmos capaces de aprender y adaptarse permiten automatizar fases enteras de un ciberataque que antes requerían mucho trabajo manual. Por ejemplo, la IA puede escudriñar Internet a gran escala en busca de vulnerabilidades en sistemas específicos, reduciendo drásticamente el tiempo de reconocimiento necesario para un hacker​.

Herramientas de «machine learning» pueden generar exploits (códigos maliciosos) a medida o incluso probar miles de variaciones hasta encontrar una que burle las defensas, todo sin intervención humana.

Además, los ataques pueden volverse más furtivos: una IA bien entrenada podría modificar su patrón de intrusión en tiempo real para evitar ser detectada, evolucionando sobre la marcha​. Esta adaptabilidad hace que los ataques automatizados sean como virus vivos: capaces de mutar frente a los “anticuerpos” de seguridad.

Una de las amenazas más evidentes es el uso de IA generativa para engaños e ingeniería social. Piratas informáticos y grupos de desinformación emplean IA para crear «phishing» mucho más convincente –correos electrónicos o mensajes falsos personalizados con detalle– imitando a colegas o autoridades de forma casi indistinguible​.

«Chatbots» maliciosos con IA pueden sostener conversaciones en tiempo real haciéndose pasar por soporte técnico o incluso por un amigo de la víctima, persuadiéndola de revelar credenciales o instalar «malware»​.

Como señaló Rob Joyce, director de ciberseguridad de la NSA, los actores maliciosos “están usando los grandes modelos de IA para mejorar su inglés en los correos de phishing y contenidos de influencia maligna”, volviéndolos mucho más efectivos​.

La IA también permite crear «deepfakes» –vídeos o audios falsos– de líderes políticos o militares, que podrían emplearse para sembrar caos (imaginemos un audio falso de un presidente anunciando una crisis, capaz de mover mercados o desatar tensiones diplomáticas).

En 2019, por ejemplo, delincuentes usaron una clonación de voz por IA para estafar a un ejecutivo, haciéndose pasar por su CEO en una llamada telefónica. A nivel estatal, se teme que campañas de desinformación potenciadas por IA (capaces de generar miles de posts persuasivos adaptados a distintos perfiles) puedan influir en elecciones o exacerbar divisiones sociales en países rivales.

Frente a estas amenazas, las agencias de ciberseguridad están recurriendo igualmente a la IA para reforzar la defensa. Las redes de un país generan volúmenes enormes de datos de registro, tráfico, alertas… imposibles de vigilar manualmente en su totalidad.

Aquí la IA actúa como un centinela incansable: algoritmos de «machine learning» analizan en tiempo real el flujo de comunicaciones buscando comportamientos anómalos que delaten una intrusión sutil.

Rob Joyce (NSA) explicó que la agencia utiliza modelos de IA y big data para “sacar a la luz esas actividades” inusuales de «hackers» que de otro modo pasarían inadvertidas​.

En particular, la IA resulta eficaz detectando la táctica llamada vivir de la tierra”, en la cual los atacantes evitan malware obvio y se camuflan usando herramientas legítimas del sistema.

Los «hackers» chinos, por ejemplo, han sido sorprendidos infiltrándose en redes de infraestructura crítica de EE.UU. (transporte, oleoductos, puertos) sin dejar rastro de virus, sino creando usuarios y procesos que imitan actividad normal.

Para un ojo humano, estas intrusiones son agujas en un pajar; en cambio, los modelos de IA pueden identificar desviaciones sutiles en el comportamiento de un supuesto usuario legítimo y alertar a los analistas antes de que ocurra el daño​.

Joyce resumió la situación así: “veremos que en ambos bandos, quienes usen IA/ML lo harán mejor”​. Es decir, tanto atacantes como defensores están aumentando sus capacidades mediante inteligencia artificial, generando una nueva carrera armamentista en el ciberespacio.

Las herramientas defensivas van desde sistemas comerciales hasta desarrollos estatales secretos. Firmas de ciberseguridad ofrecen plataformas de detección inteligente de intrusiones que aprenden el patrón normal de cada red y lanzan alarmas ante cualquier anomalía.

Gobiernos están implementando IA para filtrar el tráfico en infraestructuras críticas, cerrando conexiones sospechosas en milisegundos, e incluso para atribuir ataques: analizando características de código y tácticas, la IA puede inferir la autoría probable de un ciberataque (por ejemplo, vinculándolo a grupos de hackers conocidos).

No obstante, también los atacantes se benefician de la IA para dificultar la atribución, mezclando huellas o generando código “Frankenstein” (ensamblado por IA de múltiples fuentes) que no se parezca a nada visto.

Este juego del gato y el ratón tecnológico tiene implicaciones importantes para la soberanía digital de los Estados. Por un lado, los países están dándose cuenta de que deben proteger sus datos y sistemas con sus propias capacidades de IA, para no depender de proveedores extranjeros que podrían tener puertas traseras. Europa, por ejemplo, habla de lograr “soberanía tecnológica”, lo que incluye tanto desarrollar sus nubes y chips seguros como sistemas de IA soberanos aplicados a ciberseguridad​.

La reciente directiva NIS2 de la UE impondrá estándares robustos de seguridad a las tecnologías de IA utilizadas en infraestructuras críticas​.

Países como Francia o Alemania promueven alternativas locales en ciberdefensa con IA. China, por su parte, lleva años construyendo un ciberespacio con “murallas” –su Gran Cortafuegos y plataformas domésticas– para controlar la información que entra y sale, arguyendo principios de “ciber soberanía” que le permiten monitorizar y filtrar contenidos en nombre de la seguridad nacional​.

Rusia ensaya algo similar con su Runet controlado. En democracias liberales, este concepto de soberanía digital se enfoca más en garantizar que los datos sensibles (ciudadanos, empresas, administración) permanezcan bajo jurisdicción nacional y estén protegidos contra espionaje extranjero.

Por ejemplo, tras las revelaciones de Edward Snowden, muchos países impulsaron medidas para alojar datos gubernamentales en centros locales cifrados y auditar el software que usan sus funcionarios.

La IA añade otra capa: no solo importa dónde están tus datos, sino quién entrena los algoritmos con ellos y con qué sesgos o accesos. Si un Estado utiliza un sistema de ciberseguridad basado en IA provisto por una empresa de otro país, ¿podría haber un riesgo de que esa IA informe secretamente al país de origen? Estas suspicacias alimentan tendencias al proteccionismo tecnológico: cada bloque quiere dominar sus propias soluciones.

De ahí que China impulse su sector de ciberseguridad doméstico en lugar de confiar en firmas occidentales, y que EE.UU. mire con recelo a empresas chinas como Huawei no solo en 5G sino también en software de seguridad.

En el ámbito de la ciberinteligencia, la IA también se ha vuelto indispensable para procesar el «big data» que recogen las agencias. Miles de millones de comunicaciones (emails, chats, llamadas VoIP) pasan diariamente por filtros automatizados que buscan palabras clave o patrones que indiquen amenazas (terrorismo, espionaje, etc.).

La IA eleva esta capacidad al descubrir conexiones ocultas: por ejemplo, puede correlacionar actividad en redes sociales con movimientos financieros y geolocalización de móviles para identificar una posible célula durmiente.

La CIA y la NSA han invertido en «startups» de IA que analizan redes sociales abiertas, buscando indicios tempranos de crisis políticas o campañas de desinformación extranjeras. Incluso en inteligencia tradicional, como analizar fotos satelitales, la IA acelera trabajo que antes requería cientos de ojos humanos revisando imágenes: un algoritmo puede detectar construcciones sospechosas (silos de misiles, por ejemplo) entre millones de fotos, priorizando dónde debe mirar el analista. Esto mejora la conciencia situacional de un Estado sobre las actividades de sus adversarios.

«En definitiva, la seguridad nacional en la era digital dependerá en gran medida de la habilidad de los Estados para dominar la IA en el ciberespacio».

Sin embargo, también en inteligencia la IA puede llevar a falsos positivos o ser engañada. Se conocen técnicas de adversarial AI, donde atacantes introducen sutiles alteraciones para confundir a los algoritmos (p. ej., un patrón de píxeles en una imagen que hace que un sistema de visión vea una tortuga donde hay un arma).

De igual modo, un espía podría introducir datos señuelo en canales interceptados para desviar la atención de la IA de vigilancia. Es un juego complejo en el que ambas partes –ofensiva y defensiva– intentan explotar o burlar la inteligencia de las máquinas.

En definitiva, la seguridad nacional en la era digital dependerá en gran medida de la habilidad de los Estados para dominar la IA en el ciberespacio.

Un país con débiles capacidades de IA será un blanco fácil: sus redes críticas podrían ser saboteadas por enemigos más avanzados, su población inundada de propaganda deepfake en época electoral, sus secretos estratégicos filtrados sin dejar rastro.

Por el contrario, quienes cuenten con “guardianes algorítmicos” eficientes y actualizados podrán frustrar muchos ataques silenciosos y mantener a raya a los adversarios en la sombra digital. Pero esta carrera no es estática; la innovación continua significa que ninguna defensa es definitiva.

Como en el mito de Aquiles, siempre puede aparecer una nueva “flecha” inteligente apuntando al talón vulnerable.

A nivel internacional, esto plantea interrogantes sobre estabilidad y normas: ¿será posible acordar límites al uso de IA en ciberguerra, tal como se hizo con ciertas armas cibernéticas convencionales?

Por ahora, los esfuerzos van rezagados. Se han propuesto en la ONU principios de responsabilidad estatal en ciberespacio, pero nada específico respecto a IA. Mientras tanto, los países más adelantados –EE.UU., China, Rusia, Israel– continúan midiéndose en operaciones encubiertas, sabiendo que descubrir vulnerabilidades en el sistema de otro puede otorgar una ventaja estratégica sin disparar un solo tiro.

Paradójicamente, la seguridad de todos en el ciberespacio interconectado podría beneficiarse de cierta cooperación (por ejemplo, compartiendo alertas de «malware» impulsado por IA que ataca indiscriminadamente gobiernos y empresas), pero la lógica de desconfianza prevalece.

Para sintetizar

En conclusión, la IA es un multiplicador tanto para los ataques cibernéticos como para la defensa cibernética. Supone un cambio de paradigma en cómo los Estados deben proteger su “patria digital” y proyectar poder en redes ajenas.

La soberanía ya no solo se mide en fronteras físicas, sino en la capacidad de controlar datos, infraestructura digital y algoritmos frente a intromisiones externas. Y en este dominio la ventaja es para quien use la mejor tecnología, una máxima que resulta válida para ambos lados del conflicto digital.

En nuestra próxima entrega analizaremos la influencia de la IA en las relaciones internacionales, la posible gobernanza global de la IA y las perspectivas de futuro.

La irrupción acelerada de la inteligencia artificial en la geopolítica mundial plantea interrogantes fundamentales sobre cómo podría transformarse el orden internacional en las próximas décadas. Diversos escenarios prospectivos comienzan ya a perfilarse.

Por un lado, podríamos encontrarnos con un escenario de fragmentación tecnológica profunda, caracterizado por la división entre bloques tecnológicos rivales encabezados por Estados Unidos, China y Europa, con estándares técnicos, éticos y legales incompatibles.

Esta dinámica dificultaría la cooperación global y podría aumentar tensiones diplomáticas, con consecuencias imprevisibles para la estabilidad internacional.

Alternativamente, un escenario más optimista podría darse con una gobernanza multilateral emergente, donde las potencias acuerdan normas básicas sobre el uso ético y responsable de la IA, especialmente en aplicaciones militares y cibernéticas.

Este contexto favorecería la colaboración internacional en campos como la medicina, el cambio climático y la prevención de conflictos, mostrando cómo la IA puede convertirse en un puente hacia una mayor cooperación global.

Un tercer escenario, mixto, podría surgir donde coexistan simultáneamente tanto competencia estratégica como cooperación puntual en áreas específicas. En este caso, las grandes potencias buscarían proteger celosamente sus avances tecnológicos, pero reconocerían la necesidad de colaboraciones pragmáticas para resolver retos globales urgentes, estableciendo así un equilibrio complejo entre rivalidad y diálogo.

Estos escenarios anticipan dilemas y oportunidades que se abordarán con mayor profundidad en la siguiente entrega, explorando cómo decisiones tomadas en el presente podrían determinar significativamente el destino común de la humanidad en la era de las máquinas inteligentes.

Otras Columnas por Jorge Carrera Domenech:
Últimas Firmas