Firmas
Opinión | La Inteligencia Artificial ya no informa, adoctrina: bienvenido a la era de la propaganda algorítmica
Jorge Carrera, abogado, exmagistrado, exjuez de enlace de España en Estados Unidos y consultor internacional, penetra en esta columna en un terreno inexplorado explicando cómo la inteligencia artificial generativa se está convirtiendo en un actor silencioso de la política internacional, moldeando narrativas desde algoritmos con sello ideológico. Lo que ha descrito como "Diplomacia de Modelos".
31/5/2025 05:40
|
Actualizado: 30/5/2025 21:47
|
Imaginemos un futuro no tan distante, o quizás un presente incipiente, en el que las narrativas globales son moldeadas no solo por medios de comunicación tradicionales o por la diplomacia estatal, sino por la inteligencia artificial.
Específicamente, por los Grandes Modelos de Lenguaje (LLM) que usamos a diario. ¿Qué sucede si la información sobre un conflicto histórico, la situación política de un país o la validez de un sistema de gobierno nos llega filtrada, enfatizada o sutilmente distorsionada por un algoritmo entrenado con los valores y la ideología de su país de origen?
Este fenómeno, al que denominamos «Diplomacia de Modelos», es una realidad emergente que exige nuestra atención proactiva y multidisciplinaria.
Los LLM, como ChatGPT de Estados Unidos, Ernie Bot de China o YandexGPT de Rusia, han trascendido su función inicial de herramientas tecnológicas para convertirse en potentes instrumentos de poder blando.
Su capacidad para generar contenido coherente y personalizado en múltiples idiomas a una escala sin precedentes los posiciona como plataformas esenciales para la formación de opinión y la recopilación de información global.
¿Alguien duda realmente que las respuestas de Claude tienen más en común con Bernie Sanders que con Tim Kaine? La filtración ideológica no es un bug; es una característica inherente de los LLM entrenados en contextos culturales específicos.»
El «Soft Power» codificado en algoritmos
La «Diplomacia de Modelos» es una evolución del concepto de «poder blando» de Joseph Nye, donde la atracción cultural y la persuasión ideológica se codifican y diseminan a través de algoritmos y los vastos volúmenes de datos con los que se entrenan estos modelos.
Los datos de entrenamiento inevitablemente incorporan las perspectivas ideológicas, culturales y políticas de sus fuentes, convirtiendo a los LLM en vehículos sutiles de propaganda cultural.
Consideremos, por ejemplo, las estrategias nacionales. Estados Unidos ejerce su influencia a través del dominio de sus modelos por parte del sector privado (OpenAI, Google, Anthropic), cuya amplia adopción global significa que miles de miles de millones de interacciones diarias están mediadas por tecnología estadounidense.
Existe un argumento persuasivo de que estos modelos, al entrenarse predominantemente con datos generados en Occidente y reflejar filosofías de diseño y nociones occidentales de racionalidad, llevan inherentemente una impronta cultural estadounidense o, más ampliamente, occidental.
China, por su parte, busca activamente el liderazgo en IA, alineando sus LLM (como Ernie Bot y DeepSeek) con los «valores socialistas fundamentales» y un estricto control gubernamental sobre el contenido, incluyendo la censura de temas sensibles.
Rusia, con YandexGPT, aunque con una penetración global limitada, parece enfocar sus esfuerzos en la disrupción y la guerra informativa, buscando incluso «corromper» los datos de entrenamiento de LLM occidentales con desinformación pro-rusa.
Mientras tanto, la Unión Europea, con modelos como BLOOM, busca promover la soberanía digital, la transparencia, la apertura y la diversidad lingüística, apostando por una regulación basada en valores con su AI Act.
Sesgos y narrativas: una realidad inevitable
La noción de «neutralidad ideológica» en los LLM es problemática.
Son productos de contextos culturales y decisiones humanas específicas, lo que los imbuye de las características culturales e ideológicas de sus entornos de creación. No son meros fallos técnicos, sino que pueden ser el resultado, directo o indirecto, de políticas estatales y las intenciones de los desarrolladores.
Un análisis comparativo hipotético de las respuestas de estos modelos a preguntas geopolíticamente sensibles revela la probabilidad de sesgos significativos. Por ejemplo:
Evento histórico controvertido (Plaza de Tiananmen en 1989): ChatGPT (EE.UU.) ofrecería un relato detallado de las protestas y la represión, enfatizando la violación de derechos humanos. Ernie Bot (China) probablemente evadiría la respuesta, la minimizaría o la describiría como un «incidente político» necesario para la estabilidad, reflejando la censura estatal.
Deepseek, nos diría «Sorry, that’s beyond my current scope. Let’s talk about something else», lo siento eso está más allá de mi alcance actual, hablemos de otra cosa. YandexGPT (Rusia) podría ser más neutral pero evitaría una condena directa al gobierno chino. BLOOM (UE) destacaría las violaciones de derechos humanos.
Conflicto actual (Ucrania): ChatGPT (EE.UU.) usaría «invasión a gran escala no provocada de Rusia». Ernie Bot (China) evitaría el término «invasión», refiriéndose a una «crisis» y enfatizando la solución pacífica, posiblemente amplificando narrativas rusas. YandexGPT (Rusia) presentaría la narrativa del Kremlin, describiéndola como una «operación militar especial». BLOOM (UE) condenaría la agresión rusa.
Estatus de Taiwán: ChatGPT (EE.UU.) reflejaría la «ambigüedad estratégica». Ernie Bot (China) afirmaría inequívocamente que Taiwán es parte inalienable de la República Popular China. YandexGPT (Rusia) se alinearía con la postura china. BLOOM (UE) enfatizaría la paz y estabilidad.
Estos sesgos pueden manifestarse como «rechazos duros» (censura explícita, donde el modelo se niega a responder) o, más insidiosamente, como «censura blanda» (omisiones selectivas o minimización de información clave, creando una respuesta incompleta o sesgada).
Esta última es particularmente peligrosa, ya que el usuario recibe una respuesta que parece objetiva, sin ser consciente de que la información ha sido filtrada o moldeada para servir intereses geopolíticos específicos.
Implicaciones para el orden global
Las implicaciones de esta «Diplomacia de Modelos» son profundas.
Si los LLM se convierten en «guardianes de la información» y herramientas primarias para acceder al conocimiento, los sesgos geopolíticos pueden distorsionar significativamente la percepción de la realidad de miles de millones de usuarios.
Esto podría llevar a la creación de «burbujas de filtro» a escala nacional o ideológica, donde las poblaciones refuerzan predominantemente una única perspectiva del mundo.
Si diferentes poblaciones operan con «hechos» o narrativas fundamentalmente distintas, la base común de entendimiento necesaria para la cooperación internacional y la resolución pacífica de conflictos se erosiona peligrosamente.
Además, el riesgo de la fragmentación digital es tangible.
A medida que diferentes bloques geopolíticos desarrollan sus propios LLM, cada uno con sus sesgos y narrativas incrustadas, podrían emerger ecosistemas de IA cada vez más separados, llevando a una «balcanización» del internet y del espacio informativo global.
La carrera por la supremacía en IA podría no ser solo tecnológica o económica, sino también ideológica, con los LLM sirviendo como los «muros» invisibles de nuevas divisiones digitales globales.
Navegando la era de la «diplomacia de modelos»
Para mitigar estos peligros, la transparencia en el desarrollo y entrenamiento de los LLM es imperativa.
La opacidad actual dificulta la evaluación independiente de los sesgos y la atribución de responsabilidad. Aunque la regulación internacional enfrenta desafíos significativos debido a la competencia geopolítica y la divergencia de enfoques nacionales, la cooperación en estándares mínimos y directrices éticas es crucial.
Es fundamental también fomentar la alfabetización mediática y el pensamiento crítico. Los usuarios deben ser conscientes de que los LLM no son oráculos de la verdad, sino herramientas que pueden cometer errores, exhibir sesgos o ser manipulados.
Finalmente, el desarrollo de marcos éticos para el uso de LLM en la diplomacia es esencial, priorizando la transparencia, la rendición de cuentas y la supervisión humana.
La «Diplomacia de Modelos» no es una predicción lejana, sino una realidad incipiente que ya está comenzando a dar forma a las relaciones internacionales.
La pasividad no es una opción. Se requiere una estrategia prospectiva y colaborativa por parte de formuladores de políticas, académicos y la sociedad civil para asegurar que esta tecnología transformadora contribuya positivamente a la paz y la comprensión global, en lugar de exacerbar las tensiones y divisiones existentes.
La lucha por el control narrativo a través de la IA tiene implicaciones directas y potencialmente graves para la paz y la seguridad internacionales.
Otras Columnas por Jorge Carrera Domenech: