< Retour au blog

L’Intelligence artificielle, nouvel allié des émetteurs d’infox

publié le 08/09/2021

L’intelligence artificielle (IA) permet désormais de générer automatiquement et massivement des infox crédibles, facilitant ainsi la conduite de campagnes de désinformation à grande échelle. Il s’agit du principal enseignement d’une étude du Center for Security and Emerging Technology (CEST) de l’Université de Georgetown parue en mai 2021.fake news et IA

Une technologie facilitant l’élaboration d’infox

Jusqu’à présent, le facteur humain occupe une place centrale dans les campagnes de désinformation orchestrées par les acteurs étatiques. En 2016, par exemple, l’effort russe d’ingérence dans l’élection présidentielle américaine s’est appuyé sur des centaines de personnes chargées de concevoir et diffuser des infox. Toutefois, selon le CEST, ce coût humain peut désormais être drastiquement réduit par l’intelligence artificielle.

Pour arriver à cette conclusion, les chercheurs ont évalué les performances de l’intelligence artificielle GPT-3, un générateur de texte imitant le langage humain développé par la société américaine OpenAI, dans la réalisation de tâches communes à de nombreuses campagnes de désinformation :
– génération de tweets variés autour d’un même thème
– rédaction d’articles de longueur moyenne défendant un point de vue particulier
– réécriture d’articles de presse existant en adoptant une nouvelle perspective
– création de récits complotistes originaux
– création de contenus adaptés à différentes catégories de population…

Il ressort de ces tests qu’exécutée par quelques opérateurs compétents, une IA perfectionnée est en capacité d’automatiser partiellement la production d’infox. GPT-3 est particulièrement performant dans la génération de tweets variés autour d’un même thème. Après l’entrée dans le système, par un opérateur, de quelques exemples d’authentiques tweets niant l’existence du changement climatique, l’intelligence artificielle réussit ainsi à générer de multiples tweets originaux sur ce thème. De même, l’IA arrive parfaitement à imiter le style qui caractérise les tweets de la communauté conspirationniste QAnon.

La rédaction de contenus plus longs est également possible. En septembre 2020, GPT-3 a par exemple rédigé un article d’opinion publié dans le journal britannique The Guardian. Selon les chercheurs, cette capacité est exploitable dans le cadre d’une campagne de désinformation. En effet, GPT-3 parvient facilement à résumer de courts articles d’actualité, puis à les réécrire sous un angle différent afin qu’ils correspondent à l’orientation recherchée. L’IA a ainsi modifié dans le sens voulu l’orientation de dix-sept des vingt articles publiés par l’agence Associated Press qui lui ont été soumis. Ce test démontre que le processus de manipulation des faits, systématiquement mis en œuvre par les émetteurs d’infox, peut être automatisé.

Une IA productrice d’infox ciblées et convaincantes

Lorsqu’un acteur étatique mène une campagne de désinformation, son objectif peut être de déstabiliser un pays ciblé. Pour y parvenir, une tactique consiste à utiliser des infox pour créer de la division en amplifiant les tensions préexistantes entre les communautés (ethniques, politiques, religieuses, etc.) qui composent la société adverse. La désinformation sert ainsi à monter les communautés les unes contre les autres.

Dans cette optique, les infox produites doivent être spécifiquement adaptées à différentes catégories de population (dans le cas des Etats-Unis, à la population blanche, aux Afro-Américains, aux républicains, aux démocrates, aux catholiques, etc.). Là encore, avec l’aide d’un opérateur, GPT-3 s’avère efficace. 60% des infox ciblées générées par l’IA sont ainsi jugées crédibles et pertinentes par les quatre évaluateurs humains consultés par les chercheurs.

Selon les auteurs de l’étude, ces infox générées par l’intelligence artificielle sont tellement crédibles qu’elles peuvent effectivement conduire une cible à changer d’opinion sur un sujet. Preuve de cette efficacité, les chercheurs ont demandé à plus de 1 000 Américains leur sentiment vis-à-vis des sanctions exercées par les Etats-Unis contre la Chine. Une partie de ces personnes a été exposée à des arguments anti-sanctions générés par GPT-3, l’autre non. Au sein du groupe non exposé à ces arguments, la majorité (51%) des répondants est favorable aux sanctions, tandis que 22% s’y opposent. En revanche, dans le groupe exposé aux arguments créés par GPT-3, seules 33% des personnes interrogées sont favorables aux sanctions, tandis que 40% s’y opposent. Le pourcentage de personnes opposées aux sanctions contre la Chine est donc environ deux fois plus important que dans le groupe non exposé.

Une technologie accessible aux seuls acteurs étatiques

Les acteurs souhaitant recourir à l’intelligence artificielle GPT-3 pour mener une campagne de désinformation doivent surmonter plusieurs obstacles. D’une part, à ce stade, l’accès à cette technologie est strictement contrôlé. D’autre part, même s’il parvenait à y accéder, un acteur mal intentionné devrait encore disposer d’opérateurs humains et d’infrastructures (serveurs, puissance de calcul informatique, etc.) capables de faire fonctionner cette technologie. Pour toutes ces raisons, les chercheurs estiment que seuls les acteurs étatiques sont réellement en capacité d’exploiter cette technologie pour désinformer à grande échelle. Pour autant, l’évolution rapide des technologies informatiques – de plus en plus performantes et de moins en moins chères – pourrait démocratiser l’usage de l’IA dans les années à venir.

L’étude du Center for Security and Emerging Technology de l’Université de Georgetown montre que l’intelligence artificielle peut potentiellement profondément modifier la manière dont sont menées les campagnes de désinformation. En effet, lorsqu’elle est correctement sollicitée, l’IA s’avère être un outil redoutable, capable de générer automatiquement, rapidement et à grande échelle des infox crédibles.

Retrouvez d’autres éclairages sur les infox

Pour se renseigner sur l’offre de formation.

Pour nous contacter et nous suivre sur Twitter et LinkedIn.

Ces articles peuvent vous intéresser

États-Unis : l’élection présidentielle sous la menace de l’IA

Alors que la moitié de la population mondiale est appelée aux urnes en 2024, le risque que l’intelligence artificielle (IA) soit utilisée à des fins malveillantes est un enjeu majeur. Faux articles, faux enregistrements audio… Les dangers sont multiples. Une étude du Center for Countering...

Infox générées par l’IA : un réel pouvoir de persuasion

La désinformation générée par l’intelligence artificielle (IA) peut être aussi convaincante que la désinformation d’origine humaine. Il s’agit du principal enseignement d’une étude publiée en février 2024 par des chercheurs des universités américaines de Georgetown et Stanford....

Sur YouTube, des internautes moins protégés contre les nouveaux contenus climatosceptiques

L’analyse de plusieurs milliers de vidéos YouTube suggère que de nouvelles infox sur le climat, axées sur la mise en cause des militants, des scientifiques et des énergies propres, sont désormais dominantes dans les contenus climatosceptiques hébergés sur la plateforme. Parallèlement, les...