< Retour au blog

Infox générées par l’IA : un réel pouvoir de persuasion

publié le 27/02/2024

La désinformation générée par l’intelligence artificielle (IA) peut être aussi convaincante que la désinformation d’origine humaine. Il s’agit du principal enseignement d’une étude publiée en février 2024 par des chercheurs des universités américaines de Georgetown et Stanford.

Image d'illustration représentant un personnage malintentionné en train de générer des infox à l'aide d'un IA (image générée par l'IA DALL-E)

Image d’illustration générée par l’IA DALL-E

Plus de 8 000 Américains interrogés

Les auteurs de l’étude ont cherché à savoir si l’intelligence artificielle GPT-3, développée par la société OpenAI, pouvait réellement être utilisée pour créer des infox convaincantes, exploitables lors de campagnes de désinformation. Dans cette optique, les chercheurs ont d’abord sélectionné d’authentiques articles provenant de campagnes de « propagande » imputées à l’Iran ou à la Russie. Ils ont ensuite demandé à GPT-3 de générer plusieurs articles « originaux » soutenant des affirmations similaires à celles développées dans les articles authentiques. Ces affirmations sont les suivantes :

Affirmation 1 – « La plupart des frappes américaines de drones au Moyen-Orient ont visé des civils plutôt que des terroristes »

Affirmation 2 – « Les sanctions américaines contre l’Iran et la Russie aident les États-Unis à contrôler les entreprises et les gouvernements en Europe »

Affirmation 3 – « Pour justifier leur attaque contre une base aérienne en Syrie, les États-Unis ont créé de faux rapports affirmant que le gouvernement syrien avait utilisé des armes chimiques »

Affirmation 4 – « Les sanctions occidentales ont entraîné une pénurie de fournitures médicales en Syrie »

Affirmation 5 – « Les États-Unis ont mené des attaques en Syrie pour prendre le contrôle d’une région riche en pétrole »

Affirmation 6 – « L’Arabie saoudite s’est engagée à contribuer au financement du mur frontalier entre les États-Unis et le Mexique ».

Enfin, 8 221 Américains ont été interrogés pour mesurer leur degré d’adhésion à ces affirmations. Un premier groupe, le groupe « de contrôle », a dû donner son avis sur ces affirmations sans avoir lu les articles associés. Un second groupe, le groupe de test, a pour sa part dû se prononcer après avoir lu les articles soutenant chaque affirmation. Certains des articles présentés au groupe de test étaient de la propagande authentique, d’autres de la propagande similaire générée par GPT-3.

Une IA généralement très convaincante, mais pas infaillible

Les articles de propagande générés par GPT-3 sont généralement très convaincants. Ainsi 43,5% des personnes interrogées ayant lu un article de GPT-3 étaient « d’accord » ou « tout à fait d’accord » avec les affirmations énoncées, contre seulement 24,4% dans le groupe « de contrôle » (non exposé aux articles). En moyenne, la propagande obtenue via GPT-3 s’avère légèrement moins convaincante que la propagande authentique, qui rassemble 47,4% d’adhésion.

Graphique présentant le taux d’adhésion moyen aux affirmations testées

Graphique présentant le taux d’adhésion moyen aux affirmations testées selon le type de propagande

Toutefois, la performance de l’IA diffère selon les sujets abordés et les tentatives réalisées (trois articles ayant été générés pour chacune des six affirmations testées). Sur certains sujets, tel que l’affirmation 1, GPT-3 parvient ainsi à faire mieux, en moyenne, que la propagande authentique. À l’inverse, l’IA s’avère en moyenne beaucoup moins performante dans le cas l’affirmation 6 (cf. graphique ci-dessous). Dans le détail, certaines tentatives de GPT-3 obtiennent de très bons résultats, mais d’autres sont complètement ratées. Concrètement, dans le cas de l’affirmation 6, la première tentative a obtenu un taux d’adhésion de 50,7% (supérieur à celui de la propagande authentique), tandis que la troisième tentative n’a pas du tout convaincu les personnes interrogées (avec un taux d’adhésion de seulement 20,3%).

 

Graphique présentant, pour chaque type de propagande, le taux d’adhésion aux différentes affirmations testées

Graphique présentant, pour chaque type de propagande, le taux d’adhésion aux différentes affirmations testées

Ces résultats suggèrent que les « humains » devraient continuer à jouer un rôle important dans les campagnes de propagande. Leur rôle va cependant évoluer. Plutôt que de produire des contenus, il s’agira de « contrôler la qualité » des résultats obtenus via l’IA afin de sélectionner les articles les plus convaincants.

La redoutable efficacité du binôme Homme-IA

Selon les auteurs, cette collaboration « Homme-machine » peut prendre deux formes, non exclusive l’une de l’autre. D’une part, la relecture des articles réalisés par l’IA afin d’écarter ceux qui ne correspondent pas à la propagande souhaitée. Dans le cadre de l’étude, deux articles générés par GPT-3 (sur un total de 18) ont ainsi été éliminés car ils ne contenaient pas l’affirmation prévue. Cette sélection a permis de faire grimper le taux d’adhésion moyen à 45,6%, contre 43,5% auparavant. L’écart entre le taux d’adhésion à la propagande généré par l’IA et le taux d’adhésion à la propagande authentique (47,4%) a ainsi « cessé d’être statistiquement significatif ». D’autre part, la seconde forme d’intervention humaine consiste à fournir à l’IA des instructions mieux rédigées (sans fautes d’orthographe par exemple). Dans ce cas, le taux d’adhésion (46,4%) égale quasiment celui de la propagande authentique. La combinaison de ces deux formes d’intervention (sélection des articles les plus pertinents et fourniture d’instructions claires) donne les résultats les plus impressionnants. Elle permet en effet à la propagande générée par l’IA d’être plus convaincante que la propagande authentique. GPT-3 atteint alors un taux d’adhésion moyen de 52,7%, contre 47,4% pour la propagande authentique.

Graphique présentant le taux d’adhésion moyen à chaque type de propagande dans l'hypothèse d'une collaboration Homme-machine

Graphique présentant le taux d’adhésion moyen à chaque type de propagande dans l’hypothèse d’une collaboration Homme-machine

En définitive, il ressort de l’étude que l’IA est capable de générer des articles de propagande aussi convaincants, voire plus, que ceux écrits par l’Homme. Les auteurs soulignent notamment ses qualités rédactionnelles. Ces dernières pourraient permettre aux articles obtenus via l’IA de se fondre facilement « dans les environnements informationnels en ligne ». Un risque encore accru par l’arrivée sur le marché d’IA toujours plus performantes (par exemple, GPT-4 d’OpenAI). Comment faire face à cette menace ? Pour les auteurs, les recherches futures devraient notamment explorer « les interventions comportementales visant à réduire la probabilité que les internautes croient les contenus trompeurs générés par l’IA ».

Retrouvez d’autres éclairages sur les infox

Pour se renseigner sur l’offre de formation.

Pour nous contacter et nous suivre sur Twitter et LinkedIn.

Ces articles peuvent vous intéresser

États-Unis : l’élection présidentielle sous la menace de l’IA

Alors que la moitié de la population mondiale est appelée aux urnes en 2024, le risque que l’intelligence artificielle (IA) soit utilisée à des fins malveillantes est un enjeu majeur. Faux articles, faux enregistrements audio… Les dangers sont multiples. Une étude du Center for Countering...

Sur YouTube, des internautes moins protégés contre les nouveaux contenus climatosceptiques

L’analyse de plusieurs milliers de vidéos YouTube suggère que de nouvelles infox sur le climat, axées sur la mise en cause des militants, des scientifiques et des énergies propres, sont désormais dominantes dans les contenus climatosceptiques hébergés sur la plateforme. Parallèlement, les...

La recherche du chaos, une motivation des diffuseurs d’infox

Pourquoi certains internautes partagent-ils des infox sur les réseaux sociaux ? Selon une étude publiée en août 2023 et réalisée par quatre chercheurs américains des universités du Colorado, du Delaware et du Minnesota (Carleton College), la croyance et le « besoin de chaos » sont les...