Firmas

Opinión | La inteligencia artificial en la geopolítica mundial: nueva frontera de poder (II)

Opinión | La inteligencia artificial en la geopolítica mundial: nueva frontera de poder (II)
Jorge Carrera, abogado, exmagistrado, exjuez de enlace de España en Estados Unidos y consultor internacional, continúa en esta segunda columna explicando cómo la Inteligencia Artificial está redefiniendo la geopolítica global. Imagen: Confilegal.
09/4/2025 05:38
|
Actualizado: 09/4/2025 08:29
|

El rápido avance de la inteligencia artificial está dejando huella en la diplomacia, los equilibrios de poder y las alianzas globales. La pugna tecnológica por la IA no ocurre en el vacío: reconfigura bloques geopolíticos, tensa negociaciones y obliga a replantear tratados, a tal punto que algunos hablan del surgimiento de una nueva guerra fría tecnológica centrada en la IA.

La rivalidad entre Estados Unidos y China en IA tiene repercusiones que se extienden a terceros países y a foros internacionales. Washington y Pekín compiten por ganar esferas de influencia tecnológica: ofrecen inversiones, infraestructura y entrenamiento en IA a naciones aliadas o en desarrollo, buscando inclinarlas hacia su órbita.

Por ejemplo, China ha exportado masivamente sistemas de vigilancia con IA a más de 60 países –incluyendo Irán, Myanmar o Venezuela–, acompañados a menudo de créditos blandos que facilitan su adopción.

Esto no solo afianza la posición china como proveedor preferido, sino que difunde su modelo de “tecnología autoritaria”, generando preocupación en Occidente por la erosión de libertades en esos lugares​.

Estados Unidos, por su parte, ha recurrido a contener la difusión de tecnología de IA avanzada a sus rivales. En 2022 implementó estrictos controles a la exportación de microchips de última generación y equipos de fabricación de semiconductores hacia China, precisamente para frenar el progreso chino en computación de alto rendimiento e IA militar.

Esta medida –coordinada también con Japón y Países Bajos, claves en la cadena de chips– causó protestas de Pekín y añadió un nuevo frente a la guerra comercial.

China lo percibe como un intento de frenar su ascenso, mientras EE. UU. lo justifica por seguridad nacional (no fortalecer al Ejército Popular de Liberación en IA).

El resultado es una fragmentación del ecosistema tecnológico global, con restricciones cruzadas: China a su vez limitó exportaciones de metales raros clave para chips, escalando la tensión.

BLOQUES TECNOLÓGICOS

Estas dinámicas configuran bloques tecnológicos cada vez más definidos. De un lado, un bloque de democracias industrializadas (EE.UU., Europa, Japón, Canadá, Australia, Corea del Sur, etc.) que, pese a sus diferencias, comparten preocupación por el uso autoritario de la IA y buscan mantener la delantera en innovación abierta.

Del otro, un eje de potencias autoritarias o de economía estatal (China y Rusia a la cabeza, con apoyo retórico de países como Irán o Arabia Saudí) que enfatizan la no injerencia en sus políticas tecnológicas internas y colaboran puntualmente en foros para evitar regulaciones internacionales que perciben contrarias a sus intereses.

BRICS, el grupo que reúne a Brasil, Rusia, India, China y Sudáfrica, se ha mostrado interesado en cooperar en IA para impulsar a los países en desarrollo y no dejar que Occidente dicte las normas.

En la cumbre de 2022 en Beijing, los BRICS hicieron un llamamiento conjunto a abordar los riesgos éticos de la IA y a fortalecer la cooperación en la materia entre sus miembros​.

Y en la reciente cumbre de 2024 (Kazan), expresaron que la IA ofrece un nuevo potencial para la cooperación del grupo e instaron a consultas internacionales sobre su gobernanza, asegurando que se escuche la voz del mundo en desarrollo​.

Aunque el bloque BRICS es heterogéneo (India y Brasil también cooperan con Occidente en ciertos aspectos), existe un interés común en no depender de las plataformas y estándares de EE.UU./UE y en explorar, por ejemplo, intercambios de datos o infraestructuras compartidas de IA.

IA, TECNOLOGÍA ESTRATÉGICA, SEGÚN LA OTAN

Las alianzas militares tradicionales también están adaptándose a la era de la IA. La OTAN reconoció a la IA como tecnología estratégica y en 2021 adoptó su primera estrategia de IA, con principios para su uso responsable​.

La Alianza Atlántica busca no quedarse atrás en la incorporación de IA para defensa colectiva: iniciativas para mejorar la interoperabilidad de sistemas autónomos entre aliados, ejercicios conjuntos de ciberdefensa con IA y la creación de centros de innovación (como el DIANA, enfocado en tecnologías emergentes, IA incluida).

Todo ello intenta asegurar que, si llega el caso, las fuerzas de la OTAN puedan contrarrestar amenazas “inteligentes” de adversarios. Al mismo tiempo, internamente los aliados debaten cuestiones éticas –por ejemplo, algunos europeos son más favorables a limitar las armas autónomas que EE.UU.–, pero la OTAN ha logrado consenso en que mantener la superioridad tecnológica es clave para la disuasión.

Rusia, al ver a la OTAN movilizada, ha intensificado su retórica sobre la “militarización de la IA” por Occidente, mientras acelera sus propios proyectos (como drones submarinos autónomos).

En la región Asia-Pacífico, ha surgido una red de alianzas y asociaciones tecnológicas: AUKUS (ya mencionada) y el Quad (EE.UU., India, Japón, Australia) discuten cooperación en IA para seguridad marítima y resiliencia cibernética. Incluso países tradicionalmente no alineados se ven obligados a tomar partido en aspectos técnicos: por ejemplo, Vietnam o Indonesia sopesan aceptar inversiones chinas en ciudades inteligentes con IA versus asociarse con Japón o EE.UU. para soluciones alternativas.

La competencia por estandarizar la IA se globaliza: China promueve sus estándares de reconocimiento facial y ciudades seguras en organismos como la UIT, mientras Europa empuja principios de IA confiable en la OCDE y el G20.

¿ESTAMOS ENTONCES EN UNA «GUERRA FRÍA» TECNOLÓGICA?

Existen paralelismos y diferencias. Como en la Guerra Fría original, dos superpotencias encabezan bloques con visiones ideológicas distintas (una democracia liberal vs. un sistema autoritario de partido único), ahora encarnadas en el manejo de la tecnología y la información.

También hay una carrera armamentista (esta vez de algoritmos y chips) y pugnas por aliados en el mundo en desarrollo. Sin embargo, a diferencia del siglo XX, la economía global sigue entrelazada: hasta hace poco, empresas estadounidenses y chinas colaboraban en IA (investigadores compartidos, inversiones cruzadas).

Aunque se está produciendo un cierto “desacoplamiento”, no es absoluto. Además, en la IA entran actores no estatales con mucho peso, sobre todo las grandes corporaciones tecnológicas.

Empresas como Google, Microsoft, OpenAI o Tencent invierten en IA sumas comparables a presupuestos estatales y desarrollan sistemas (ej. modelos de lenguaje como GPT-4) con potencial impacto global.

Sus decisiones –qué productos lanzar, con qué restricciones– pueden afectar a la seguridad y las sociedades tanto como las de un gobierno.

Esto hace más compleja la rivalidad: ¿debe considerarse a una corporación de un país como “campeón nacional” al servicio de su geopolítica o como actor transnacional autónomo? En EE.UU. y China, la línea se difumina, pues ambos gobiernos colaboran o presionan a sus gigantes tecnológicos para alinearlos con intereses nacionales (sea la seguridad nacional estadounidense o la estrategia de fusión civil-militar china).

Por ejemplo, el gobierno chino invierte en empresas punteras de IA y exige acceso a sus desarrollos cuando lo considere necesario para “seguridad del Estado”.

EE.UU., por su lado, prohibió que laboratorios de IA como OpenAI vendan sus modelos más avanzados a China e incluso ha reclutado talento de Google/Meta para proyectos de defensa.

La IA también comienza a colarse en la diplomacia y tratados internacionales. En negociaciones comerciales, se discute el libre flujo de datos (vital para entrenar IA) versus el proteccionismo de datos (la UE con su RGPD y planteos de “data sovereignty”, China con su ley de seguridad de datos).

En acuerdos de cooperación científico-tecnológica, la IA suele ser capítulo estrella: por ejemplo, el Consejo de Comercio y Tecnología EE.UU.-UE tiene un grupo dedicado a IA para armonizar enfoques.

En tratados de defensa como el AUKUS, el intercambio de IA militar es un componente central que hace unas décadas ni figuraba en acuerdos militares clásicos. Incluso en foros climáticos y de desarrollo sostenible, surge la IA: ¿compartirán los países ricos con los pobres la IA necesaria para, digamos, optimizar agricultura o redes eléctricas?

Estas discusiones podrían entrar en futuros tratados de transferencia tecnológica.

IA GENERA MOTIVOS DE FRICCIÓN POLÍTICA

En paralelo, la IA genera nuevos motivos de fricción diplomática. Por ejemplo, la sospecha de que un país esté usando IA para espiar a líderes de otro (recordando el incidente de la NSA escuchando a aliados, lo cual hoy sería aún más fácil con IA analizando llamadas).

O acusaciones de interferencia electoral mediante «bots» y «deepfakes» orquestados desde el extranjero –un tema candente desde las elecciones de 2016 en EE. UU. y los referendos europeos, con Rusia frecuentemente señalada–.

A medida que la IA facilite la creación de falsos consensos en redes o «fake news» virales, es probable que los gobiernos se acusen mutuamente en la ONU de emplear “ejércitos de ‘trolls’ con IA” para desestabilizar sociedades.

Esto demandará quizás nuevos protocolos internacionales, así como los hubo para propaganda en la Guerra Fría.

En cuanto a bloques como AUKUS, BRICS u OTAN, la IA actúa como catalizador para consolidarlos o redefinir su misión. AUKUS, más allá de submarinos nucleares para Australia, explícitamente busca compartir tecnología punta (IA, computación cuántica, ciber, hipersónica) entre los tres países​.

Este miniclub tecnológico pretende mantener la ventaja aliada en el Indo-Pacífico frente a China. La OTAN, por su parte, debe considerar que un ataque a un país miembro puede ahora no ser con tanques, sino con un ciberataque de IA devastador que paralice su red eléctrica; la cuestión de cuándo invocar el Artículo 5 ante un ciberataque aún es difusa, pero claramente la Alianza endurece su postura hacia las agresiones híbridas posiblemente habilitadas por IA (por ejemplo, si un país miembro sufre sabotaje en infraestructuras críticas mediante malware inteligente originado en un actor estatal).

En los BRICS, India y China compiten sutilmente por influencia, pero ambos coinciden en reclamar que cualquier normativa global sobre IA debe “tener en cuenta las visiones de los Estados en desarrollo”​, mostrando unidad para contrarrestar la percepción de normas impuestas por Occidente.

Se perfilan también nuevas coaliciones inusuales: por ejemplo, un eje Israel-Estados Árabes del Golfo en materia de high-tech, donde la IA es terreno común para cooperación de seguridad (por mutua enemistad con Irán).

O la aproximación de potencias medianas tecnológicas: Japón y la UE firmando partenariados en IA ética, Canadá y Francia liderando cumbres de IA inclusiva, etc.

Incluso países tradicionalmente neutrales como Suiza buscan un papel ofreciendo ser sede de iniciativas de gobernanza de IA, capitalizando su imagen de imparcialidad.

CARRERA ARMAMENTÍSTICA E IA

La metáfora de la “carrera armamentista” aplicada a la IA no es solo militar; abarca la carrera por la influencia normativa. ¿Qué valores y reglas prevalecerán en la era de la IA?

Occidente promueve la noción de IA confiable, centrada en derechos humanos, transparencia y mitigación de sesgos, plasmada en documentos como los Principios de la OCDE de 2019 respaldados por casi 50 países​. Por su parte, China empuja un discurso de IA para el desarrollo y soberanía digital, enfatizando la no discriminación pero eludiendo mencionar libertades políticas.

Esta divergencia se reflejó en la Cumbre de IA de París de 2024, donde más de 60 países –incluyendo Francia, Alemania y China– apoyaron una declaración sobre gobernanza ética de la IA, pero Estados Unidos y Reino Unido rehusaron firmarla por temor a que impusiera regulaciones demasiado estrictas que frenasen la innovación​.

El hecho de que Washington y Londres se desmarcaran incluso de aliados europeos en este punto evidencia tensiones internas en el bloque occidental: hay quien prioriza la ética global (UE) y quien prioriza la competitividad nacional (EE.UU., post-Brexit UK).

Detrás también subyace la cautela de ceder a foros multilaterales el control sobre tecnologías claves.

En resumen, la IA actúa ya como un factor de poder que los Estados emplean para reforzar alianzas, atraer socios y frenar adversarios.

Está influyendo en tratados comerciales (datos, propiedad intelectual de IA), acuerdos de defensa (intercambio de algoritmos), discusiones de ciberseguridad (normas de comportamiento responsable en redes) e incluso en cómo se conciben los derechos y principios globales.

NUEVAS FORMAS DE DIPLOMACIA TECNOLÓGICA

A medida que esta influencia crezca, podrían emerger nuevas formas de diplomacia tecnológica: tal vez “acuerdos de no proliferación de IA” en ciertas áreas de alto riesgo, o mecanismos de transparencia mutua en desarrollos de IA militar, inspirados en el control de armas tradicional.

También es plausible que la IA misma se emplee en diplomacia –por ejemplo, analizando big data para prever inestabilidad y orientar ayuda preventiva, o simulando resultados de acuerdos complejos–, aportando herramientas para la negociación internacional.

Lo cierto es que ningún país puede sustraerse del impacto geopolítico de la IA. Incluso los más pequeños deberán posicionarse: ya sea adoptando estándares de un bloque, resistiendo presiones para vetar empresas de uno u otro lado, o aprovechando nichos (por ejemplo, Estonia ofrece sus servicios gubernamentales digitales a otros, exportando know-how en IA cívica).

La IA está remodelando el mapa de poder blando también: quien provea la IA para resolver problemas (clima, salud, agricultura) en países pobres, ganará buena voluntad e influencia.

Por eso vemos a China regalando sistemas de reconocimiento facial para seguridad ciudadana en África, mientras la UE promete compartir IA para gestión sostenible en regiones vulnerables.

Cada gesto tecnológico es también un movimiento diplomático. Así, la inteligencia artificial se ha entrelazado profundamente con las relaciones internacionales. Si el siglo XX fue marcado por la disuasión nuclear y la carrera espacial, el siglo XXI bien podría definirse por la competencia y cooperación en IA.

Un equilibrio delicado donde, como dijo Henry Kissinger, “la velocidad con que la IA actúa hará problemáticas las situaciones de crisis” –no será una circunstancia normal​ –, advirtiendo que la ausencia de reglas en este terreno podría llevar a malentendidos peligrosos.

Estamos, según sugiere, en los “albores de una Guerra Fría”, con la salvedad de que esta vez la tecnología clave (IA) será accesible de forma amplia y no solo a unas pocas potencias​. Esto último implica que la competencia por la IA podría ser aún más compleja de contener y gestionar que la rivalidad nuclear del pasado.

EL PAPEL DE LOS ORGANISMOS MULTILATERALES Y LA GOBERNANZA GLOBAL DE LA IA

Frente a la naturaleza global y transversal de la inteligencia artificial, cabría esperar una respuesta coordinada de la comunidad internacional para establecer reglas del juego.

Sin embargo, la gobernanza global de la IA aún está en pañales. Organismos multilaterales como la ONU, la OCDE, la UE o el G20 han iniciado esfuerzos para abordar los desafíos de la IA, pero enfrentan obstáculos significativos para lograr consensos vinculantes en un contexto de desconfianza y competencia entre potencias.

En las Naciones Unidas, el secretario general António Guterres ha sido una voz prominente alertando sobre los riesgos de una IA sin control global. En 2023, Guterres comparó la amenaza potencial de la IA con la de las armas nucleares, sugiriendo incluso la creación de una agencia internacional para la IA inspirada en el OIEA (el organismo atómico)​.

Me mostraría favorable a un nuevo organismo de la ONU para la IA, tomando como modelo el OIEA”, afirmó, destacando que ese ente podría combinar conocimiento científico con cierto poder regulatorio​. Siguiendo su iniciativa, la ONU conformó un Grupo Consultivo de Alto Nivel en IA, integrado por expertos, para que presentara recomendaciones sobre gobernanza global de la IA a fines de 2023​.

Este panel ha propuesto entre otras cosas crear un Observatorio Mundial de IA, fomentar un código de conducta voluntario para empresas de IA y establecer moratorias en aplicaciones especialmente peligrosas (como los sistemas de IA totalmente autónomos en contexto militar)​ .

No obstante, dichos planteamientos chocan con la realidad política: ¿cederán las grandes potencias parte de su autonomía en IA a un organismo internacional? Hasta ahora, la respuesta implícita es negativa.

En diciembre de 2024, la ONU logró un hito parcial al aprobar la mencionada resolución de la Asamblea General sobre armas autónomas, que aunque no es vinculante, refleja un sentir mayoritario de 166 países por avanzar hacia algún marco legal​. Es una señal de que en áreas específicas (como lo militar) puede haber terreno para acuerdos.

Pero en otros ámbitos civiles, las diferencias son palpables: mientras la UNESCO logró en 2021 la adopción de una Recomendación de Ética de la IA por sus 193 Estados miembros –un marco no vinculante que promueve principios como transparencia, privacidad, no discriminación–, potencias como EE. UU. y China difieren en la interpretación de esos principios.

Por ejemplo, China apoyó la recomendación de UNESCO, pero en la práctica su visión de privacidad es subordinada a la seguridad del Estado; Occidente, en cambio, critica la falta de libertades que la IA china conlleva pese a firmar los mismos textos.

La OCDE fue pionera en establecer lineamientos: sus Principios sobre IA de 2019 establecen que la IA debe ser innovadora, fiable, respetuosa de derechos humanos y valores democráticos, y ofrecen recomendaciones para políticas públicas​.

Estos principios fueron endosados no solo por los 36 miembros de la OCDE sino también por otros países invitados (Brasil, Argentina, Rumanía, Singapur, etc.), sumando 44 signatarios​. Además, inspiraron la declaración del G20 de ese año sobre IA.

Aunque son directrices voluntarias, muchos gobiernos las usan como base para sus marcos nacionales​. En 2024, la OCDE actualizó los principios para incorporar preocupaciones recientes (como la proliferación de la IA generativa y la desinformación), enfatizando la necesidad de mecanismos contra la manipulación informativa y de “botón de apagado” para sistemas fuera de control​.

Esta capacidad de adaptación muestra que los foros técnicos pueden reaccionar, pero de nuevo, sin obligatoriedad.

El G7 y el G20 también han abordado la IA. El G7 lanzó en 2020 una iniciativa llamada Global Partnership on AI (GPAI), un esfuerzo multilateral para investigar y coordinar políticas en IA ética, que incluye a países como India (y excluye deliberadamente a China).

GPAI genera informes y herramientas de buenas prácticas, pero carece de peso normativo. En mayo de 2023, los líderes del G7 acordaron promover estándares de IA confiable y discutieron la idea de regulaciones para modelos de IA de gran tamaño, ante la irrupción de ChatGPT.

Sin embargo, la formulación fue vaga por las divergencias entre EE. UU. (más reticente a regular empresas) y la UE (con su AI Act casi listo). En el G20, bajo presidencia de India 2023, se logró una declaración apoyando la cooperación en la regulación de la IA teniendo en cuenta las visiones de países en desarrollo.

Es significativo que incluso potencias rivales en lo político coincidan en el enunciado de colaborar en marcos para IA, pero queda en palabras generales. Cabe recordar que en el G20 también están Rusia y China; lograr algo concreto en ese foro es complejo.

UE, EL ACTOR MÁS ACTIVO DESDE EL PUNTO DE VISTA REGULATORIO

La Unión Europea ha emergido quizá como el actor más activo regulatoriamente. Aunque la UE no es global por sí misma, su Reglamento de IA (AI Act) se perfila como la primera ley integral sobre IA en el mundo.

Contempla un enfoque basado en riesgos: prohibir aplicaciones inaceptables (manipulación subliminal masiva, crédito social, etc.), regular fuertemente las de “alto riesgo” (p.ej. IA en reclutamiento, justicia, vigilancia biométrica), y obligaciones de transparencia para IA generativa, entre otras medidas​.

Ya se ha visto con el RGPD (protección de datos) cómo incluso compañías estadounidenses ajustan sus prácticas globales a las exigencias europeas.

China, por cierto, también ha emitido regulaciones domésticas sobre IA generativa, centradas en censura de contenidos “no alineados” con valores socialistas.

Esto significa que los dos mayores mercados del mundo (UE y China) tendrán reglas, aunque con fundamentos distintos (ética vs. control político), y las empresas de IA tendrán que navegar ese mosaico.

¿POR QUÉ ENTONCES NO HAY TRATADO GLOBAL SOBRE LA IA?

En gran medida, por conflictos de interés. Para algunas potencias, mantener libertad de acción es más importante que tener reglas comunes.

EE.UU. teme que un tratado vinculante obstaculice la innovación de sus empresas o restrinja su desarrollo de IA militar mientras rivales podrían incumplir encubiertamente.

China recela de cualquier mecanismo internacional que pueda interferir en su uso interno de la IA (por ejemplo, no aceptaría inspecciones sobre cómo usa la IA para vigilancia doméstica).

Rusia históricamente se opone a acuerdos que percibe desequilibrados (en la ONU sobre armas autónomas ha bloqueado, pues su doctrina militar apuesta por la IA como “igualador” frente a la OTAN).

Además, la rápida evolución tecnológica dificulta enmarcar reglas: negociar un tratado toma años, para entonces la IA habrá avanzado y quizás el texto quede obsoleto o incompleto.

Existen también divisiones conceptuales: países occidentales hablan de IA “concentrada en el ser humano”, enfatizando la protección del individuo; China y otros promueven IA para “desarrollo social” y “orden”, priorizando lo colectivo.

También hay una brecha de capacidades: muchos países en desarrollo temen que regulaciones demasiado estrictas los perjudiquen, impidiéndoles beneficiarse de la IA. Quieren espacio para crecer tecnológicamente sin cargas onerosas.

Esto se vio en la COPUOS (Comité de la ONU sobre espacio ultraterrestre) donde naciones emergentes pedían equilibrio entre regulación y acceso. Con la IA ocurre parecido: quién escribe las reglas? Si las escriben Europa y Norteamérica, otros sienten sus necesidades ignoradas; si se involucra a todos, las discusiones se estancan por la amplitud de visiones.

No obstante, hay esfuerzos de coordinación práctica en marcha.

INTERPOL, ONU E INDUSTRIA

Por ejemplo, Interpol, ONU y la industria han lanzado proyectos para controlar el uso de IA contra delitos: evitando sesgos en sistemas policiales, compartiendo información sobre criminales que usan deepfakes, etc. La OACI (aviación civil) trabaja en estándares para IA en control de tráfico aéreo, garantizando seguridad.

La Organización Mundial de la Salud discute directrices para IA médica. Estas iniciativas sectoriales, aunque técnicas, forman parte de una incipiente gobernanza fragmentada.

Cada sector va creando sus guías: financieras (IA en banca), laborales (IA y futuro del trabajo en la OIT), educativas (UNESCO y OCDE en ética de IA en escuelas), etc. Es un mosaico que algún día podría unificarse en principios más generales.

Un actor curioso en gobernanza son las propias Big Tech. Empresas como Google han pedido una “intervención regulatoria equilibrada” –por un lado se autorregulan creando consejos éticos internos, por otro influyen para evitar leyes muy duras–.

En 2023 los CEOs de OpenAI, DeepMind y Anthropic firmaron una carta abierta equiparando el riesgo existencial de la IA al de pandemias o guerra nuclear, instando a mitigarlo globalmente. Este llamado incluso fue mencionado en foros de la ONU, pero traducirlo en acción concreta es complejo.

Aun así, la presión pública y de expertos para “hacer algo” va en aumento, sobre todo tras la masificación de IA generativa que mostró a la opinión pública tanto su lado asombroso como sus peligros (bulos, suplantaciones, sesgos).

Un ámbito donde sí podría haber acuerdo es en la IA aplicada a problemas globales. La ONU impulsa la iniciativa AI for Good, para canalizar IA hacia los Objetivos de Desarrollo Sostenible: detección temprana de desastres, optimización de cultivos, personalización educativa, etc.

Aquí incluso rivales colaboran: científicos de EE.UU. y China unen datos para entrenar IA climáticas, por ejemplo. Es posible que surjan consorcios internacionales para proyectos de IA benéfica, con apoyo de Banco Mundial, ONUDI u otros. Aunque esto no es gobernanza en sentido estricto, sí crea un espacio cooperativo que podría reducir suspicacias y generar confianza entre países.

Lamentablemente, por ahora el panorama es de fragmentación normativa: distintas jurisdicciones con sus reglas, pocos mecanismos globales vinculantes.

Esto podría derivar en lo que algunos llaman “balcanización de la IA”, con internet y flujos de datos fracturados por muros legales, algo que reduciría el potencial positivo de la IA a nivel mundial.

Los más optimistas comparan la situación con la industria nuclear de mediados del siglo XX: al principio cada potencia iba por libre hasta que se vio la necesidad de un marco común (OIEA, TNP).

Quizá estemos acercándonos a un punto de inflexión similar: un incidente grave relacionado con IA –un accidente autónomo fatal, o una crisis provocada por desinformación de IA– podría servir de catalizador para que la comunidad internacional tome en serio la creación de guardarraíles globales.

En síntesis, los organismos multilaterales están en alerta pero maniatados por las divergencias entre potencias. Hay acuerdos en principios (ética, derechos humanos, seguridad) pero falta traducirlos en reglas concretas y verificables.

La ONU podría eventualmente hospedar un régimen de gobernanza de IA, pero requerirá voluntad política de los principales actores. Mientras tanto, el vacío normativo se llena con iniciativas parciales: principios voluntarios, soft law, certificaciones (por ejemplo, la ONU y la OCDE discuten esquemas de certificación de IA confiable para guiar a la industria​).

Queda un largo camino para una gobernanza global eficaz. La ventana para instaurarla es ahora, antes de que la IA esté tan extendida que cualquier control sea impracticable. El mundo necesita reglas para la IA, pero el mundo (de Estados soberanos con intereses propios) aún no se pone de acuerdo en cómo forjarlas.

PERSPECTIVAS DE FUTURO: ESCENARIOS A 10-20 AÑOS

Mirando hacia las próximas dos décadas, la inteligencia artificial aparece como un factor transformador del orden mundial, cuyo desenlace aún es incierto. Diversos escenarios de futuro son posibles, dependiendo de cómo evolucionen la tecnología, la competencia geopolítica y la cooperación internacional.

A continuación, planteamos algunos de esos escenarios, desde los más conflictivos hasta los más colaborativos, para vislumbrar cómo podría alterarse el equilibrio de poder global hacia 2035–2045.

ESCENARIO 1: GUERRA FRÍA 2.0. MUNDOS DIVIDIDOS POR UNA CORTINA DIGITAL

En este panorama, la tendencia actual de rivalidad se agudiza y cristaliza en dos ecosistemas tecnológicos rivales.

Por un lado, un bloque liderado por Estados Unidos y aliados democráticos consolida su supremacía en IA puntera: mantiene la delantera en chips cuánticos, algoritmos avanzados y aplicaciones comerciales globales (con Big Tech estadounidenses dominando mercados).

Por otro lado, China logra cerrar la brecha en IA y se convierte en líder en Asia y el mundo en desarrollo, exportan

do masivamente sus plataformas de IA y estableciendo estándares alternativos.

Hacia 2035, la “bipolaridad” tecnológica es un hecho: existen dos Internet en gran medida separadas, con poco intercam

bio de datos entre ellas; los dispositivos chinos funcionan con sistemas de IA incompatibles con los occidentales.

Los países se ven presionados a alinearse con uno u otro sistema para no quedarse aislados. La economía mundial se fragmenta: por ejemplo, las cadenas de suministro de semiconductores se divorciaron, cada bloque fabricando sus propios chips críticos.

Hay una carrera militar abierta: ambos bloques despliegan enjambres autónomos, misiles inteligentes y sistemas de defensa IA, pero conscientes del riesgo catastrófico, evitan el enfrentamiento directo.

En cambio proliferan conflictos por poderes (proxy) donde cada superpotencia apoya a su facción con IA –imaginemos guerras regionales donde un bando recibe inteligencia de satélites con IA de EE. UU. y el otro drones autónomos de China–.

La diplomacia se congela: el Consejo de Seguridad de la ONU está paralizado respecto a IA, pues EE. UU. y China vetan cualquier resolución que les limite.

Vivimos esencialmente una Guerra Fría tecnológica, con períodos de tensión aguda (crisis de desinformación que casi llevan a choques militares, sabotajes cibernéticos contra infraestructuras críticas) seguidos de cautelosas treguas.

En este escenario, la innovación continúa pero compartimentada; la humanidad no colabora plenamente en desafíos globales (clima, salud) porque la desconfianza entre bloques lo impide, perdiéndose potencial de IA para el bien común.

El equilibrio de poder es frágil –un avance súbito de un lado en IA podría tentar a acciones agresivas–, pero se mantiene una paz tensa basada en la disuasión simétrica (ambos saben que el otro tiene IA suficiente para contraatacar devastadoramente en ciber o militar). Este futuro es sombrío en cuanto a cooperación, evocando los peores temores de una carrera sin freno.

ESCENARIO 2. RÁPIDA CONVERGENCIA: UNA SUPERPONTENCIA DE IA EMERGE

Aquí imaginamos que el desarrollo de la IA toma un cariz disruptivo más temprano que tarde.

Es posible que en la próxima década se logren avances hacia una IA general (AGI) o al menos sistemas mucho más poderosos que los actuales en casi cualquier tarea cognitiva.

En este escenario, uno de los grandes actores logra una ventaja decisiva: digamos que para 2030, Estados Unidos (en alianza con empresas líderes) desarrolla un conjunto de IAs tan avanzadas que ningún otro puede igualar su capacidad. Esto confiere a EE.UU. –o al bloque que lo acompañe– un salto cuántico en productividad y poder militar.

Con IAs avanzadas, optimizan su economía, dominan sectores enteros (finanzas, biotecnología) y despliegan defensas casi impenetrables. ina y otros quedan rezagados pese a sus esfuerzos. El equilibrio global sufre un vuelco similar a cuando EE. UU. tuvo el monopolio nuclear en 1945, pero aún más amplio porque la IA permea todo.

La nación puntera podría presionar a las demás diplomáticamente (imponiendo su agenda en ONU, OMC, etc.), sabiendo que tiene superioridad tecnológica.

Esto podría derivar en una pax technologica unipolar durante un tiempo: el líder de IA actúa como árbitro mundial, tal vez con cierto altruismo (compartiendo beneficios selectivamente) o quizá de forma hegemónica (vinculando ayuda a alineamiento político).

Sin embargo, este mundo unipolar de IA también conlleva riesgos: las demás potencias, sintiéndose amenazadas, podrían aliarse para contrarrestar de alguna manera (por ejemplo, formando un consorcio China-UE-India para ponerse al día) o recurrir a tácticas asimétricas (sabotaje, alianzas militares tradicionales) para equilibrar. Además, el propio detentador de la súper IA enfrenta un reto: evitar el abuso de ese poder.

Podría surgir un “complejo tecno-militar” tentado a usar la IA omnipotente para vigilancia masiva mundial, manipulación de mercados o intervenciones preventivas en otros países (dado que la IA le da ventaja informativa total).

En el mejor de los casos, un liderazgo responsable establecería acuerdos globales para distribuir equitativamente los avances –por ejemplo, perdonar deudas a cambio de acceso a tecnologías IA que mejoren sociedades–, pero la historia sugiere que la tentación de dominio es fuerte.

Este escenario unipolar es menos caótico que el anterior, pero plantea la cuestión: ¿es deseable que una sola potencia concentre el “genio” de la IA? La concentración de poder sin precedentes en un actor podría derivar en abusos o en que los demás lo perciban como tiranía,socavando la legitimidad del orden internacional.

ESCENARIO 3. COOPERACIÓN GLOBAL: UN MARCO COMPARTIDO PARA LA IA

En este futuro más optimista, las naciones consiguen articular acuerdos internacionales sólidos para guiar el desarrollo de la IA, reconociendo que los riesgos existen y trascienden fronteras.

Quizás impulsados por uno o dos incidentes alarmantes (por ejemplo, un fallo de una IA militar que por poco causa una tragedia, o un colapso financiero breve originado en un algoritmo descontrolado), los líderes mundiales se sientan a negociar seriamente.

Hacia 2030, se establece bajo el paraguas de la ONU un “Acuerdo de Gobernanza de la IA” con amplio respaldo.

En él se pactan principios de contención: se prohíben explícitamente las armas autónomas totalmente sin control humano y se crea un régimen de verificación (similar a inspectores, pero en este caso, auditorías algorítmicas)​.

Asimismo, se acuerdan protocolos de transparencia: los países deben notificar ciertos desarrollos de IA potencialmente peligrosos a un panel internacional de científicos.

Este panel funciona parecido al IPCC (clima) pero para IA, emitiendo informes periódicos del estado global de la IA y advertencias tempranas.

A la par, surge una agencia internacional de IA que promueve la compartición de beneficios: los países líderes aportan a un fondo que subsidia acceso a infraestructuras de computación para países pobres, evitando una brecha insalvable.

En la economía, se logran estándares comunes para IA ética que permiten flujos de datos entre continentes con garantías, impulsando un nuevo auge de comercio digital.

Este mundo cooperativo no es utópico –los Estados aún compiten económicamente–, pero reconocen que ciertas áreas requieren acción colectiva. Por ejemplo, se lanza un proyecto global para usar la IA contra el cambio climático, combinando datos satelitales de todos y algoritmos para optimizar la respuesta a desastres y la mitigación.

La IA médica se regula a nivel OMS para que tratamientos basados en IA sean validados internacionalmente, salvando vidas sin sesgos geográficos.

La ciberseguridad mejora porque incluso adversarios comparten parches contra IAs maliciosas que puedan golpear indiscriminadamente.

Políticamente, este acercamiento quizás implique concesiones: China accede a moderar su exportación de sistemas de vigilancia a cambio de reconocimiento en la gobernanza global; EE.UU. acepta un tratado que limita ciertas aplicaciones militares a cambio de inspecciones recíprocas con China (evitando una carrera desbocada).

La UE sirve de puente y garante de los principios humanitarios en el acuerdo.

En definitiva, se logra una pax tecnológica cooperativa, donde la IA es tratada como patrimonio común de la humanidad a encauzar, similar a cómo el espacio ultraterrestre o la Antártida fueron objeto de tratados internacionales. Este escenario, aunque idealista, proporcionaría la base para que la IA se desarrolle minimizando sus peligros y maximizando sus beneficios para todos.

El equilibrio de poder en tal mundo sería más estable, pues habría menos incentivos a la confrontación abierta; las diferencias ideológicas persistirían pero manejadas con diplomacia, recordando que la amenaza de la IA fuera de control es mayor que las disputas entre naciones.

ESCENARIO 4. REVOLUCIÓN DEL PODER BLANDO: IA DEMOCRATIZADA

En este futuro, la IA se vuelve tan ubicua y relativamente accesible que muchos más actores entran en juego, difuminando la primacía de los Estados tradicionales.

El auge de plataformas de código abierto y la baja de costos hacen que para 2035, cualquier país mediano o incluso grandes ciudades y corporaciones puedan desplegar IAs avanzadas sin depender de las superpotencias.

Esto empodera a nuevos jugadores: por ejemplo, una coalición de ciudades globales utiliza IA para administrar eficientemente energía y transporte, volviéndose influyentes en foros mundiales de clima; empresas transnacionales con IA propia rivalizan con gobiernos en resolver problemas (imaginemos a Amazon/Microsoft garantizando ciberseguridad global mejor que las agencias estatales, ganando así influencia política).

Países pequeños con alta educación (Singapur, Finlandia, Uruguay) sacan provecho de IA pública para prosperar y tener voz en discusiones globales sobre normas, ya que aportan éxitos replicables. Incluso surge el fenómeno de alianzas ciudadanas transfronterizas habilitadas por IA: comunidades científicas globales unen sus inteligencias artificiales en red para presionar por acciones, por ejemplo, contra una pandemia.

La estructura clásica de poder se descentraliza; las superpotencias siguen siendo las más fuertes, pero deben lidiar con un entorno donde el poder blando –la capacidad de atraer cooperando en IA– importa tanto como el poder duro.

En este escenario, es posible que la diplomacia adopte un enfoque multiactor: la ONU involucra formalmente a corporaciones y ciudades en su órgano de IA. Se crean “sandboxes” globales donde innovadores prueban IA bajo supervisión internacional, generando confianza compartida.

El equilibrio global no se define solo por cuántas IAs tiene un ejército, sino por quién produce las soluciones IA más valiosas para la humanidad. Podríamos ver, por ejemplo, a una India emergiendo como líder moral al usar IA para elevar a cientos de millones de personas de la pobreza, ganando enorme prestigio y apoyo en organismos multilaterales.

O a la Unión Africana estableciendo un centro de IA para desarrollo sostenible que le da más peso negociador frente a grandes potencias, al demostrar conocimiento local aplicado con tecnología. Este mundo sería más multipolar y dinámico, con coaliciones temáticas (salud, clima, educación) donde IA juega un rol central.

El riesgo aquí es que actores subestatales malignos (terroristas, cárteles) también tendrían acceso a una IA poderosa, lo cual requeriría nuevas formas de seguridad colectiva (posiblemente el cooperativismo del Escenario 3 en ciber policía global).

Pero la democratización de la IA también podría significar que ya no es tan fácil para un solo Estado dominar si muchos otros tienen IAs comparables –una especie de “equilibrio de poder” distribuido–.

Por supuesto, estos escenarios no son mutuamente excluyentes y la realidad futura podría contener elementos de varios. También hay cartas desconocidas: factores disruptivos que podrían cambiar cualquier predicción.

Por ejemplo, si ocurriera un avance revolucionario en computación cuántica que combinada con IA rompa todos los esquemas de cifrado actuales, la ciberseguridad mundial se resetearía, dando temporales ventajas a quien primero la domine. O pensemos en un colapso económico global que frene la inversión en IA drásticamente; la atención mundial podría desviarse a problemas más inmediatos y la IA quedarse en pausa (similar a cómo la Gran Depresión ralentizó el progreso tecnológico militar antes de la Segunda Guerra Mundial).

También existe la posibilidad de un descubrimiento científico que limite la IA (por ejemplo, nuevos métodos de IA más seguros que reemplacen a los actuales, reduciendo su capacidad de causar daño, por improbable que parezca).

Y, no menor, está la cuestión de la IA superinteligente: si en 20 años se alcanzara o vislumbrara una IA con inteligencia muy superior a la humana en términos generales, eso sería un game-changer absoluto. El poder ya no residiría solo en naciones, sino en cómo se controle (o coopere con) a esa superinteligencia.

Podría volverse una herramienta potentísima para el primer Estado que la logre –tal vez dominando el globo–, o bien escapar al control humano y convertirse en un actor autónomo.

Este escenario de ciencia ficción es contemplado seriamente por algunos expertos, y por eso existe el movimiento de AI safety. Si la IA superinteligente llega, idealmente sería bajo la égida de una colaboración internacional que garantice su alineamiento con valores benéficos universales, para que no se convierta en un riesgo existencial. Esa sería la prueba definitiva de madurez de la humanidad: unirnos o sucumbir ante nuestra propia creación tecnológica.

UN FUTURO EN CONSTRUCCIÓN

La inteligencia artificial se ha erigido rápidamente en motor y a la vez en reto de la geopolítica contemporánea. Hemos visto cómo impulsa una carrera tecnológica global comparable a las grandes competiciones históricas, cómo difumina las fronteras entre lo militar y lo autónomo, cómo redefine la seguridad en el ciberespacio y reconfigura alianzas y rivalidades internacionales.

También observamos que las instituciones mundiales van a la zaga, tratando de acompasar reglas a un fenómeno que evoluciona vertiginosamente.

En este punto medio de la segunda década del siglo, el panorama está cargado de promesas –nuevas prosperidades, soluciones a problemas acuciantes gracias a IA–, pero igualmente de riesgos –inestabilidad estratégica, disparidades aumentadas, potencial pérdida de control–.

El equilibrio de poder mundial podría experimentar alteraciones sin precedentes en los próximos 10 a 20 años. Países que hoy son líderes podrían verse sorprendidos por nuevos actores; potencias emergentes podrían dar saltos gracias a la IA, o bien caer en la dependencia digital si no logran desarrollarla localmente.

Las alianzas se forjarán tanto por afinidad política como por conveniencia tecnológica. Quizá veamos nacer pactos de “seguridad algorítmica” así como en su día surgieron los de defensa nuclear.

El éxito de un orden internacional pacífico en la era de la IA dependerá, en gran medida, de nuestra capacidad colectiva para anticipar y gestionar sus efectos.

Al cerrar este recorrido, es inevitable recordar enseñanzas de la historia. Cada revolución tecnológica –la pólvora, la máquina de vapor, la energía atómica– reconfiguró el poder y enfrentó a la humanidad con dilemas éticos.

En ocasiones, tardamos en reaccionar: solo tras Hiroshima se inició el camino de los tratados atómicos. La IA presenta una oportunidad: aprender de la historia y actuar proactivamente.

La ventana para establecer principios y salvaguardas (ya sea a nivel nacional o global) aún está abierta, pero podría estrecharse pronto si la competencia se intensifica sin frenos.

En última instancia, la pregunta de fondo es qué tipo de futuro queremos construir con la IA. ¿Uno donde prevalezca la desconfianza, la carrera sin cuartel y el dominio de unos sobre otros? ¿O uno donde reconozcamos a la IA como una potente herramienta que, manejada con sabiduría colectiva, puede elevar el bienestar global?

La respuesta no está predeterminada por ningún algoritmo; dependerá de decisiones políticas, de la visión de líderes y ciudadanos, de la presión de científicos y sociedad civil, de la responsabilidad de las empresas y, por supuesto, de la cooperación entre naciones.

Estamos escribiendo los primeros capítulos de la era de la inteligencia artificial en la geopolítica. El desenlace aún no se ha fijado. En este presente cargado de incertidumbre, conviene fomentar el diálogo internacional informado.

Solo entendiendo la complejidad del desafío podremos aspirar a encauzarlo. Como en un tablero de ajedrez, cada movimiento cuenta y tendrá repercusiones a largo plazo.

La invitación queda abierta a la reflexión y a la acción: es tarea de nuestra generación sentar las bases para que la IA, en lugar de profundizar divisiones, se convierta en un catalizador para la cooperación y el progreso compartido en el mundo que heredarán nuestros hijos.

Otras Columnas por Jorge Carrera Domenech:
Últimas Firmas