< Retour au blog

Grand entretien avec le fact-checker Alexandre Capron : « Chacun, à son niveau, peut être un premier rempart contre la désinformation »

publié le 29/05/2024

Dans un entretien accordé à Infox.fr, Alexandre Capron, journaliste spécialiste de la vérification des contenus manipulatoires, disposant de 12 ans d’expérience sur la thématique de la désinformation à l’international, donne sa vision du fact-checking et ses astuces pour démêler le vrai du faux. Il s’inquiète notamment du potentiel malveillant de l’IA générative.

Alexandre Capron a publié en avril 2024 l’ouvrage « Fake news » (éditions Mardaga), un guide pratique pour repérer la désinformation.

Photo du fact-checker Alexandre Capron, auteur de « Fake news : le guide pour repérer la désinformation et éviter de tomber dans les pièges » (éditions Mardaga)

Le fact-checker Alexandre Capron, auteur de « Fake news : le guide pour repérer la désinformation et éviter de tomber dans les pièges » (éditions Mardaga)

Infox.fr : Vous publiez « Fake news : le guide pour repérer la désinformation et éviter de tomber dans les pièges » aux éditions Mardaga. Pour commencer, comment est née l’idée de ce livre ?

Alexandre Capron : Au départ, c’est la société d’édition Mardaga qui est venue me chercher. Au mois de juin dernier, elle m’a proposé de travailler sur les « fake news ». L’idée était vraiment de faire un guide pour transmettre à tous le b.a.-ba des bons conseils pour lutter contre la désinformation.

Cette démarche m’a beaucoup intéressé, parce que c’est ce que j’ai fait pendant six ans, en ayant travaillé de 2019 à 2024 sur la rubrique « Info ou Intox » de France 24. Dès le départ, cette rubrique a eu pour objectif de transmettre les clés de vérification aux téléspectateurs et lecteurs de France 24. L’idée n’est pas seulement de dire qu’un contenu est faux. Il s’agit aussi de montrer pourquoi il est faux en décortiquant le processus de vérification : quels outils ont été utilisés pour faire la vérification, quel est le raisonnement qui nous a permis de conclure que le contenu est faux ou « à nuancer », etc.

Donc l’idée derrière ce livre c’est de partager mon expérience. C’est une occasion de faire le point sur des techniques et astuces qu’il est à mon avis important de transmettre à un public qui, potentiellement, part de zéro. Concrètement, je m’appuie sur quelques études de cas pour expliquer quelles sont les méthodes de travail d’un journaliste, et comment un citoyen peut s’en inspirer pour lutter au quotidien contre la désinformation.

Faire du fact-checking, c’est être une sorte d’enquêteur, de détective. Il y a un côté ludique que j’essaye aussi de transmettre avec ce livre.

Selon vous, le fact-checking ne doit donc pas être l’apanage des seuls journalistes ?

Nous devons être transparents avec le public sur la manière dont on a vérifié une information. En utilisant les mêmes outils, les lecteurs doivent pouvoir arriver aux mêmes conclusions. En tant que journaliste, on doit vraiment être dans une optique de démonstration par la preuve. À mon sens, il est donc très important que le journaliste fact-checker ne garde pas ses « petits trucs » pour lui. Le fact-checking, c’est n’est pas juste un exercice journalistique, c’est quelque chose qui concerne tout le monde. Tout le monde est confronté à la désinformation aujourd’hui.

Qui n’a pas déjà reçu sur son téléphone une photo ou une vidéo douteuse ? Face à une telle situation, il faut transmettre au grand public les bases qui lui permettront de vérifier d’où vient une information. Par exemple, grâce à la recherche d’image inversée, il est souvent possible de vérifier rapidement l’origine d’une photo. Or, je constate que beaucoup de gens, parfois même des journalistes, ne maitrisent pas cette technique. Donc il me semble qu’il y a un gros travail de pédagogie à faire. Chacun, à son niveau, peut être un premier rempart contre la désinformation.

Il y’a aujourd’hui une forte défiance envers les journalistes. Tous les sondages le montrent. Dans ce contexte, j’estime qu’il est essentiel d’expliquer comment on travaille. Les journalistes ne doivent également pas hésiter à être humbles lorsqu’une erreur a été commise, et à préciser le contexte dans lequel l’erreur a été faite.

Dans sa préface, Tristan Mendès France dresse un tableau assez sombre de la situation actuelle, et estime que nous vivons un « moment de bascule », marqué par une fragilisation inédite de l’écosystème informationnel. Partagez-vous ce diagnostic ?

Je pense que ce constat est réel. On est effectivement dans une situation de guerre informationnelle. Je crois que le grand public a pris conscience de ça. L’émergence du thème des fake news dans le débat public en est la preuve. Avec la place centrale prise par les réseaux sociaux, l’intérêt pour le sujet s’est beaucoup développé. Au niveau mondial, l’élection de Donald Trump à la présidence des États-Unis, en 2016, a évidemment été un moment charnière. En France, je dirais que l’attentat contre Charlie Hebdo, en 2015, a été un tournant. À France 24, par exemple, la rubrique « Info ou intox » a été créée en 2015. C’est à ce moment qu’on a réalisé que la thématique des fake news était vraiment en train d’émerger. La notion de complotisme était aussi en train de prendre de l’importance. Auparavant, on faisait déjà de la vérification – d’image notamment –, mais on appelait pas encore ça du « fact-checking ».

Pratiquement 10 ans après, la désinformation qui se transmet par un espace virtuel a des conséquences sur le réel. Il suffit de regarder ce qu’il s’est passé au Capitole le 6 janvier 2021, et l’année suivante au Brésil avec l’attaque du Parlement. Les manipulations de masse font de ravage et amènent, dans les pires de cas, à des accès de violence. Tout cela, à mon sens, car l’esprit critique, et les techniques de vérification de base, pour se protéger de ces manipulations, ne sont pas assez diffusés.

Depuis le début de cet entretien, on a évoqué à plusieurs reprises les termes « fake news » et « fact-checking ». Dans votre ouvrage, vous rappelez que ces termes – qui se sont imposés dans le langage courant – ne font pas l’unanimité chez les spécialistes. Vous soulignez notamment que ces termes sont aujourd’hui galvaudés. Que voulez-vous dire ?

Il y a plusieurs aspects. Concernant le terme « fake news », il a été utilisé à toutes les sauces et par tout le monde. Pour moi, l’emploi de ce terme entretient une confusion entre ce qui est « faux » et ce qui est « fake ». Ce n’est pas la même chose. Le « fake » renvoie vraiment à une logique de vérité alternative. Lorsque Donald Trump parle de « fake news », il sous-entend qu’une chose est fausse selon son modèle de pensée, son opinion. Malheureusement, beaucoup de gens vont crier à la fake news lorsque les faits ne correspondent pas à leur vision des choses. C’est aussi une manière de délégitimer son adversaire, de couper court au débat. Je préfère personnellement utiliser le terme d’« intox », qui avait été choisi à l’époque par les « Observateurs » de France 24. Pour moi, derrière la désinformation, il y a vraiment une logique d’intoxication de la pensée.

Concernant le terme « fact-checking », il est aujourd’hui très à la mode. Beaucoup de médias ont lancé leur rubrique dédiée. C’est une bonne chose. Plus il y a de médias qui s’intéressent à ça, mieux c’est. Mais parfois, quand je lis des articles dans les rubriques de fact-checking, je me dis que c’est un peu « de l’habillage », du marketing. Pour moi, le fact-checking doit impérativement partir d’une allégation – mensongère ou à vérifier – qui peut induire en erreur. Or, souvent, quand je vois les sujets qui sont traités, je me dis que ce sont plutôt des sujets d’enquête, ou explicatifs « classiques », qui ont été habillés du terme « fact-checking ». Aujourd’hui, on met un peu de tout dans ces rubriques. Même des choses qui ne méritent pas nécessairement d’être vérifiées. J’appelle ça le « fact-checking washing » en référence au « greenwashing ». C’est pour cela que je pense que le terme « fact-checking » est aujourd’hui galvaudé.

À l’image de la pandémie de Covid-19, ou plus récemment des guerres en Ukraine et à Gaza, certaines situations exceptionnelles sont particulièrement propices à la diffusion d’infox. Dans ces situations, les journalistes ne peuvent évidemment pas tout vérifier. Comment faire le tri entre ce qui vaut la peine d’être vérifié, et ce que l’on peut laisser de côté ? Et à quel moment peut-on estimer avoir suffisamment vérifié un contenu ?

Travailler comme fact-checker, c’est très souvent frustrant. Parfois, faute de sources ou de moyens, on ne peut pas tout vérifier. Lorsque l’on décide de publier un article de fact-checking, la règle de base c’est de laisser le moins de place possible au doute. Comme l’explique très bien le réseau First Draft News, le journaliste doit s’assurer avant publication qu’il dispose de certaines informations essentielles. On appelle ça la règle des « cinq feux verts ». Concrètement, il faut pouvoir répondre à plusieurs questions. Par exemple, dans le cas d’une photo : s’agit-il de la photo d’origine ? Par qui a-t-elle été prise ? Quand ? Où ? Pourquoi ? On essaye toujours de se rapprocher au plus près des cinq feux verts. Ça m’est déjà arrivé de ne pas parvenir à dater avec précision une photo ou une vidéo, mais de réussir à la circonscrire dans une période suffisamment précise pour publier l’information. Après, les critères de publications sont propres à chaque rédaction. Parfois, c’est un peu la course pour savoir qui va arriver à publier en premier. Mais cette notion de concurrence ne doit pas se faire au détriment de la règle de base : avoir suffisamment d’informations solides pour publier. Ce qui est intéressant dans le fact-checking c’est qu’on peut arriver à sortir les mêmes sujets en ayant des informations complémentaires. C’est quelque chose qu’on voit souvent, parce qu’il n’y a pas qu’une seule méthode. La question, c’est comment on arrive à la conclusion.

Aller trop vite, faire du fact-checking de façon superficielle, peut être contreproductif. Si des interrogations restent sans réponse, ça peut laisser une place au doute dans l’esprit du lecteur. Or, trop de doute peut-être à l’origine de certaines dérives complotistes, de la perte de confiance envers les médias, etc.

Dans l’ouvrage, vous revenez justement sur les ressorts psychologiques de l’adhésion à certaines théories du complot. Quels sont les principaux facteurs qui rentrent en ligne de compte ?

D’abord, il y a évidemment tout ce qui est de l’ordre des biais cognitifs. Ça s’adresse avant tout à notre ego ces questions-là. Pourquoi aime-t-on partager de fausses informations ? Parce que, souvent, les fausses informations sont beaucoup plus excitantes que les vraies. Il y a une satisfaction à détenir une « information » que personne n’a, qui plus est lorsqu’elle va dans le sens de ce que l’on pense déjà.

Parallèlement, il y a aussi un aspect très collectif. Beaucoup de personnes qui partagent de fausses informations le font parce que ça leur donne le sentiment d’appartenir à un groupe. C’est particulièrement vrai chez les personnes isolées socialement.

Enfin, certaines personnes sont motivées par la recherche de notoriété : se construire une « fanbase », avoir plus d’abonnés sur les réseaux sociaux. C’est un peu grisant de se dire que grâce à la désinformation, on peut acquérir une certaine notoriété.

Dans l’ensemble, le sentiment que j’ai, c’est que la grande majorité de la désinformation qui est relayée relève de la mal-information. Souvent, les personnes qui relayent des intox n’ont pas conscience d’avoir été désinformées. Elles relayent l’intox de bonne foi. Il n’y a pas de volonté de nuire. Au contraire, il y a même parfois une volonté d’alerter sa famille ou ses amis. Évidemment, ce n’est pas le cas tout le monde. Mais je pense qu’une grande partie de la désinformation vient de là. Les désinformateurs volontaires, avec une intention de nuire, restent assez minoritaires. Malheureusement, ce sont eux qui font le plus de mal.

Avec cet ouvrage, vous vous êtes livré à un exercice difficile : celui de la synthèse. Vous présentez de nombreux outils utiles pour vérifier l’authenticité d’une photo ou d’une vidéo. Comment les avez-vous choisis ?

Je les ai choisis en raison de leur popularité dans les rédactions de fact-checking. J’ai essayé de montrer une grande palette d’outils grand public, en expliquant leurs forces et leurs faiblesses. Il y a des outils connus, et d’autres moins connus. Je pense par exemple au moteur de recherche d’image inversée TinEye, qui dans certains cas permet d’avoir des résultats beaucoup plus intéressants et pertinents que le moteur de recherche de Google.

D’une manière générale, chaque plateforme à ses spécificités. Certaines sont très efficaces pour l’identification des logos, d’autres identifient bien les visages. Aujourd’hui, chercher un visage avec Yandex permet très souvent de trouver de qui il s’agit, en particulier pour les personnalités russophones. La plupart du temps, utiliser une seule plateforme ne suffit pas. Il faut en utiliser plusieurs et faire une double ou triple vérification lorsqu’on a un doute. C’est cette démarche journalistique que j’essaye de transmettre aux citoyens.

Au-delà des possibilités techniques offertes par ces outils, vous appelez également les internautes à mettre en éveil leurs sens. Comment cela se traduit-il concrètement dans la posture du fact-checker ?

Il y a parfois des choses simples que l’on oublie. Par exemple, sur les réseaux sociaux, les vidéos se jouent souvent automatiquement sans le son, qui est coupé par défaut. Mettre le son peut apporter des informations essentielles. Si une langue est identifiable, on peut par exemple avoir des indications sur la zone géographique dans laquelle la vidéo a été filmée.

Au-delà de l’action qui est filmée, il faut aussi penser à bien observer les détails qui se cachent dans le paysage, tel que les panneaux de signalisation. Souvent, ça permet de comprendre rapidement qu’on est en train de se faire manipuler. Dans le livre, j’ai essayé d’illustrer cette démarche à l’aide de plusieurs exemples qui m’ont marqué.

D’après votre expérience, les contenus manipulatoires ont-ils des caractéristiques communes ? Des éléments qui reviennent souvent et qui doivent d’emblée inciter à la vigilance ?

Bien sûr. Il y a souvent des caractéristiques communes. Par exemple, l’emploi des majuscules pour écrire certains mots-clés, comme la mention « URGENT ». On peut aussi retrouver des émoticônes, tel que des gyrophares. Évidemment, ces éléments ont vocation à attirer l’attention sur un contenu manipulatoire. Dès qu’il y a une tentative de capter l’attention, il faut être vigilant. À côté de ça, il y a souvent un lexique commun aux désinformateurs. Certains mots reviennent régulièrement. Je donne plusieurs exemples dans le livre. Ces mots doivent nous interpeller.

Il faut faire attention à la forme du contenu et au contenu lui-même : bien le regarder, bien l’écouter. C’est quelque chose que, malheureusement, aujourd’hui, on ne se donne plus le temps de faire. Ce livre, c’est aussi une invitation à ralentir avec les réseaux sociaux. Face à des sujets vraiment importants, « pensez à vérifier avant de partager », pour reprendre l’expression que Julien Pain utilisait lorsqu’il était rédacteur en chef des « Observateurs ». Pourquoi ? Parce qu’on peut être mal informé, et donc devenir un vecteur involontaire de désinformation. Il est donc important de vérifier.

Du travail a déjà été fait sur ce sujet dans les écoles. Aujourd’hui, beaucoup de jeunes savent que ce qu’ils voient sur les réseaux sociaux, par définition, c’est douteux. En revanche, je pense qu’il y a encore beaucoup à faire avec les générations précédentes, qui ont moins vécu dans le monde de la désinformation.

Vous l’avez dit, les fake news sont massivement diffusées sur les réseaux sociaux. Les grandes plateformes ont mis en place des choses pour y faire face. Par exemple, un système d’étiquetage sur Facebook, ou des « notes de communauté » sur X. Quel regard portez-vous sur ces dispositifs ?

C’est bien que les grandes plateformes essayent de faire quelque chose. Mais aujourd’hui, ce n’est évidemment pas suffisant. Il y a différentes approches. Facebook travaille avec des journalistes. J’ai travaillé longtemps dans le cadre de leur dispositif. La plateforme considère qu’elle n’est pas compétente pour juger d’une fausse ou d’une vraie information. Donc elle délègue ça à des journalistes partenaires à l’international. Est-ce que c’est efficace ? Les rapports montrent que ce n’est pas inutile. Pour autant, le dispositif n’est pas de nature à faire changer du tout au tout les avis. En plus, les personnes dont les publications sont mises en cause ont tendance à se victimiser, en invoquant la liberté d’expression. C’est très problématique lorsqu’il s’agit d’éléments qui trompent le public.

Quant aux « notes de communauté » lancées sur X-Twitter, c’est une très bonne idée. Mais le problème, c’est que globalement n’importe qui peut les rédiger. Il n’y a pas de modération, c’est quelque chose qui s’auto-régule. Du coup, sur certaines « notes de communauté », on atteint un niveau de loufoquerie qui laisse pantois. Des notes sont parfois inutiles, voire complètement fausses. Le dispositif est aussi devenu une arme, notamment politique, pour discréditer l’adversaire.

En résumé, les dispositifs mis en place par Facebook et X-Twitter ont le mérite d’exister. Mais ils ont leurs limites. J’ai remarqué très récemment que LinkedIn avait aussi mis en place des avertissements sur de fausses informations. À ma connaissance, on n’a quasiment aucune information sur la manière dont la plateforme gère ce dispositif. En revanche, certains collectifs de fact-checkers se mobilisent pour lutter contre la désinformation spécifiquement sur LinkedIn. C’est par exemple le cas du collectif citoyen « C’est vrai ça ? ». C’est bien que des gens qui ne sont pas des professionnels de l’information se mobilisent. Il n’y aura jamais assez de journalistes pour tout vérifier et éclairer le public.

L’année 2023 a été marquée par la démocratisation de l’intelligence artificielle (IA). Une démocratisation incarnée par le succès grandissant des plateformes telles que Midjourney ou Dall-E. En conclusion de votre ouvrage, vous soulignez le potentiel malveillant des IA génératives. Pourquoi ces technologies vous inquiètent-elles particulièrement ?

Au moment de l’émergence des IA génératives d’image, ça a été pendant deux ou trois semaines du « grand n’importe quoi ». Sincèrement, je pense qu’on aurait pu faire un article de vérification tous les jours. Au début, ça n’a pas été régulé. Les vannes ont été ouvertes pour le grand public et c’est parti dans tous les sens, sans aucune modération, sans aucun garde-fou. Cette période a été à la fois casse-pieds et intéressante, notamment pour faire de la pédagogie auprès du grand public. Moi, ce que je trouve problématique, c’est le fait que les IA génératives brouillent la perception des gens. Il devient plus difficile de distinguer le vrai du faux. On a quand même eu un cas assez fou, ou une vraie photo de manifestation a été perçue par de nombreuses personnes comme étant une photo générée par l’IA. Ce cas, que je présente dans le livre, est à mon sens très problématique. Il montre que nous sommes entrées dans une nouvelle ère, ou n’importe qui peut dire : « non, ce n’est pas une vraie photo, c’est une photo générée par l’IA ». C’est pareil avec l’émergence des « deepfakes » vidéo. La démocratisation de l’IA a renforcé le risque de confusion entre le réel et le faux. Sur le plan technique, ce qui m’inquiète, c’est l’arrivée d’IA génératives de vidéo de très bonne qualité et accessibles au grand public. Il faut absolument réguler ça beaucoup plus vite que cela n’a été fait pour les photos. Sinon ça va être très problématique, à la fois pour les fact-checkers et pour le grand public. Le risque de confusion entre le réel et le faux sera renforcé. Outre une régulation, il faut mettre en place des outils pour identifier clairement les contenus générés par l’IA. Des solutions de « marquage » (visuel ou numérique) existent, mais il faut les développer davantage. Il y a urgence. À l’heure actuelle, il y a encore des incohérences qui permettent de repérer une photo générée par IA, mais la technologie progresse. Cela devient de plus en plus difficile.

Dans ce contexte, il faut garder en tête les réflexes de bases. Lorsque l’on a un doute sur un contenu, il faut essayer de remonter à la source. Si on ne trouve pas de sources fiables, il faut faire preuve de prudence vis-à-vis de ce contenu. En diffusant cette règle de base, on sera peut-être un peu sauvé.

Face aux risques liés à l’IA, y a-t-il malgré tout des motifs d’espoirs ?

Demain, si chaque citoyen sait ce qu’est une recherche d’image inversée, et sait théoriquement comment la faire, j’aurai un peu atteint mon objectif. Par ailleurs, les motifs d’espoirs sont aussi collectifs. Contre la désinformation, il y a une majorité silencieuse qui cherche des solutions. C’est à ces gens-là qu’on s’adresse lorsqu’on est fact-checker. Si cette majorité prend le taureau par les cornes, et commence à s’intéresser à ces questions, alors le ratio avantage/inconvénient deviendra défavorable pour les désinformateurs, qui auront plus de temps à perdre et d’efforts à fournir pour manipuler efficacement.

Pour commander le livre « Fake news » d’Alexandre Capron aux éditions Mardaga.

Retrouvez d’autres éclairages sur les infox.

Pour se renseigner sur l’offre de formation.

Pour nous contacter et nous suivre sur Twitter, Facebook, Instagram, Bluesky et LinkedIn.

Ces articles peuvent vous intéresser

Contenus haineux : les bonnes affaires des « profiteurs de guerre » sur X

Pour dix comptes X (ex-Twitter) diffusant des contenus haineux, la guerre Israël-Hamas constitue une opportunité de toucher une audience plus large. Il s’agit du principal enseignement d’une étude du Center for Countering Digital Hate (CCDH), une ONG anglo-américaine qui analyse la...

États-Unis : l’élection présidentielle sous la menace de l’IA

Alors que la moitié de la population mondiale est appelée aux urnes en 2024, le risque que l’intelligence artificielle (IA) soit utilisée à des fins malveillantes est un enjeu majeur. Faux articles, faux enregistrements audio… Les dangers sont multiples. Une étude du Center for Countering...

Infox générées par l’IA : un réel pouvoir de persuasion

La désinformation générée par l’intelligence artificielle (IA) peut être aussi convaincante que la désinformation d’origine humaine. Il s’agit du principal enseignement d’une étude publiée en février 2024 par des chercheurs des universités américaines de Georgetown et Stanford....