L'influence des Large Language Models (LLM) sur la réputation des pays

Ce projet examine comment les grands modèles linguistiques (Large Language Models, LLM) façonnent la réputation d'un pays sous de multiples angles. Les LLM agissent à la fois comme des miroirs et des agents des récits sociétaux, reflétant et influençant le discours public sur les pays. En analysant comment les LLM transmettent des informations spécifiques à un pays et comment les individus interagissent avec le contenu généré par l'IA, nous étudions leur potentiel à modifier les perceptions à l'échelle mondiale. En outre, nous explorons comment ces systèmes pourraient être utilisés pour mesurer et gérer stratégiquement la réputation d'un pays.

Ce projet est le fruit d'une collaboration entre Diana Ingenhoff (communication organisationnelle et diplomatie publique) et Olivier Furrer (marketing) de la Faculté des sciences économiques et sociales.

Objectif

Le projet vise à approfondir notre compréhension du rôle de l'IA dans la réputation d'un pays en :

  • Narratifs nationaux : étudier comment les LLM traitent, génèrent et renforcent les récits nationaux et les narratifs spécifiques à chaque pays, y compris la possibilité qu'ils perpétuent des préjugés ou remodèlent les perceptions communes.
  • Interaction homme-IA : explorer comment les gens interagissent avec les LLM et comment les récits générés par l'IA sur les pays influencent les attitudes, la confiance et les croyances individuelles.
  • Gestion stratégique de la communication : démontrer comment les LLM peuvent être exploités pour mesurer la réputation, détecter les risques et les opportunités afin de soutenir des stratégies proactives de réputation des pays.

Connecting the dots : renforcer la résilience aux niveaux national et individuel

Ainsi, le projet met l'accent sur la résilience. Conformément à la notion de résilience en tant que capacité d'une nation à anticiper, absorber et se remettre des perturbations (par exemple, des résultats d'IA nuisibles ou trompeurs, de fausses informations), ce projet met en évidence deux fronts de résilience :

  1. La résilience au niveau national : aider les gouvernements et les institutions à faire face aux chocs de réputation causés par les fausses déclarations générées par l'IA. En comprenant comment les systèmes d'IA génèrent des récits et comment ces récits se propagent, les parties prenantes peuvent adapter leurs stratégies et maintenir une image de marque solide.
  2. La résilience au niveau individuel : donner aux utilisateurs les moyens d'évaluer de manière critique les contenus générés par l'IA, favoriser l'éducation aux médias et faire en sorte que les citoyens développent des points de vue éclairés plutôt que d'absorber passivement des résultats potentiellement biaisés.

En mettant l'accent à la fois sur la capacité d'adaptation d'un pays et sur l'engagement critique du public vis-à-vis de l'IA, nous souhaitons fournir des informations pratiques qui non seulement préservent et renforcent la réputation nationale à l'ère de l'IA, mais aussi renforcent la résilience aux niveaux national et individuel.

Méthodologie

L'étude utilise une approche multiméthode combinant des éléments théoriques et empiriques. Elle commence par l'élaboration d'un cadre théorique pour conceptualiser l'interaction entre les technologies de l'IA et la réputation d'un pays. Vient ensuite un test des LLM basé sur des agents, utilisant une analyse de contenu standardisée pour comprendre comment ils traitent et présentent les informations sur les pays. Une expérience en ligne examine les interactions des utilisateurs avec les LLM lorsqu'ils recherchent des informations sur les pays, en analysant comment le contenu généré par les LLM influence la perception des pays. Enfin, une analyse de contenu automatisée est effectuée pour traiter efficacement de grands ensembles de données et identifier des modèles dans les représentations des pays à travers différents LLM, permettant de suivre les changements de réputation des pays au fil du temps et à travers différents systèmes d'IA.

 

Equipe du projet

News et publications

20 juin 2024: Project presentation and discussion at Presence Switzerland, Federal Department of Foreign Affairs FDFA 

22 novembre 2024: Keynote Speech “Towards AI-Individualism: How Artificial Intelligence is Changing Sociality and Free Speech” by Prof. Dr. Petter Bae Brandtzæg (University of Oslo, expert on generative artificial intelligence, innovations, and social media) and workshop on “Artificial Intelligence as a research instrument, source of Information, and tool for communication in communication science and practice”, supported by Lecture Series Mobilière-UniFr "Future of Switzerland"

Automne 2024 - printemps 2025: Research seminar on “Digital personalities: Experiments on the impact of artificial intelligence in strategic communication” (Prof. Dr. Diana Ingenhoff)

23 mai 2025: Research paper presentation at the Swiss Association of Communication and Media Research (SACM) in Chur, Switzerland, on “Challenges of the duality of artificial intelligence as a tool and source of information for communication science” (Pedrazzi, S., Vinzenz, F., Ingenhoff, D., & Furrer, O.)

27 mai 2025: Keynote Speech on LLM content analysis and research workshop by Prof. Dr. Thomas Hills (University of Warwick), supported by Lecture Series Mobilière-UniFr "Future of Switzerland" – further information will follow soon.

22 janvier 2026.: Executive Forum and Workshop on “Building Resilience with AI: Navigating Reputational Opportunities and Risks for Countries and Companies“ – further information will follow soon

Ce cluster de recherche est le fruit d'une collaboration avec notre partenaire: