< Retour au blog

Grand entretien avec le fact-checker Sylvain Tillon, cofondateur de la page « C’est vrai ça ? » sur LinkedIn : « LinkedIn n’est pas vu comme un réseau d’influence dans le domaine de la désinformation. Pourtant, pour nous, ça l’est »

publié le 17/09/2024

Dans un entretien accordé à Infox.fr, Sylvain Tillon, cofondateur de la page « C’est vrai ça ? », qui traque les infox sur LinkedIn, souligne que, contrairement à une idée très répandue, le réseau social préféré des professionnels est loin d’être épargné par la désinformation. Dressant un panorama des infox à succès sur la plateforme, il appelle tous les utilisateurs à la vigilance. Dans ce cadre, il revient sur la naissance et le fonctionnement de l’initiative « C’est vrai ça ? », et donne sa vision du fact-checking.Photo du fact-checker Sylvain Tillon, cofondateur de la page « C’est vrai ça ? » sur LinkedIn

Sylvain Tillon, cofondateur de la page « C’est vrai ça ? » sur LinkedIn

Infox.fr : Vous avez cofondé en 2020 la page « C’est vrai ça ? », qui traque les infox sur LinkedIn. Pour commencer, pouvez-vous revenir sur votre parcours, et sur ce qui vous a amené à vous lancer dans le fact-checking ?

Sylvain Tillon : Entrepreneur depuis toujours ou presque, j’ai créé ma première boîte à 20 ans. Je suis passionné par le monde de l’éducation, par les contenus justes, complets et intéressants. Je suis passionné par les connaissances en général. Et accro à LinkedIn, ce qui est malheureux. J’en fais aujourd’hui un usage professionnel. Je trouve beaucoup de mes clients sur LinkedIn. Je trouve beaucoup de mes candidats et employeurs sur LinkedIn. Parce qu’aujourd’hui je dirige « Le Bahut », une école qui forme des adultes en reconversion.

Donc, pour moi, LinkedIn est un vrai outil pro sur lequel je fais ma veille. J’ai filtré mon « feed » pour avoir des choses qui m’intéressent. Progressivement, j’ai vu des influenceurs actifs sur Facebook, X [ex-Twitter], Reddit et autres arriver, et dupliquer sur LinkedIn des contenus problématiques venant de ces réseaux.

Très vite, j’ai cherché un moyen de dénoncer ces contenus en allant plus loin que le simple fait de dire : « ces contenus sont nuls ». Parce que la nullité, c’est très subjectif. Alors, j’ai trouvé un moyen détourné, qui était de lutter contre le plagiat. Parce que finalement, beaucoup des contenus qui marchent le mieux sur LinkedIn sont des contenus plagiés. Il y en a énormément. Du coup, on avait lancé la page « CopyPost » avec un copain [Thomas Pons, fondateur de l’agence de conseil en pédagogie créative Ultra Crayon]. Lui, c’était un vrai « sniper » : en trois mots, il confondait l’auteur du plagiat. Moi, j’étais moins à l’aise. J’ai moins cette science du mot, cet art du langage. Mais souvent, je réussissais à démontrer qu’en plus d’être plagié, le contenu était complètement faux.

Voilà comment on a démarré. Sauf qu’on a subi quelques menaces, on se faisait traiter de nazis, enfin tout ça… Donc un avocat est venu nous aider à nous défendre, parce que ça devenait un peu violent. Et il m’appelle en décembre 2020, il me dit : « Sylvain, c’est cool CopyPost, ça permet de filtrer un peu les contenus sur LinkedIn, mais en ce moment il y a un sujet bien plus grave que le plagiat, c’est la désinformation ». Parce qu’on était en pleine période de Covid-19, les vaccins commençaient à être annoncés et les antivax commençaient à arriver en force. Les [Christian] Perronne, [Carlo Alberto] Brusa et autres étaient sur LinkedIn et faisaient des posts avec une audience incroyable ! Donc l’avocat me suggère de faire l’équivalent de CopyPost, mais pour lutter contre la désinformation. D’où le lancement de « C’est vrai ça ? » en décembre 2020, qui me permettait à moi de continuer à « troller » les diffuseurs de contenus problématiques. Mais avec quelques règles, qui étaient : rester cordial, ne pas attaquer l’auteur, mais uniquement ses idées, et proposer un contenu pédagogique pour que tout le monde puisse se faire sa propre idée, son propre avis sur le sujet. C’est la base de « C’est vrai ça ? ». La page a très vite connu un succès fou.

On traite plein de sujets très divers, notamment les publications soi-disant « inspirantes ». Moi, ma passion, ma spécialité sur LinkedIn, ce sont les citations apocryphes, mal attribuées. Par exemple, la phrase « je ne perds jamais, soit je gagne, soit j’apprends », attribuée à Nelson Mandela, qui ne l’a en réalité jamais prononcée. Les citations d’Einstein, de Churchill, de Gandhi, de Roosevelt et autres que l’on trouve sur LinkedIn sont très souvent fausses, apocryphes. Ou alors, elles sont sorties de leur contexte, déformées pour leur faire dire autre chose. Par exemple, la citation : « Ils ne savaient pas que c’était impossible, alors ils l’ont fait », très souvent attribuée à Mark Twain, est en réalité de Marcel Pagnol. Cette citation, elle donne envie de croire qu’avec du courage et de la motivation, tout est possible. Or, en réalité, si l’on se réfère à l’œuvre de Pagnol, c’est avant tout une ode à la naïveté, plus qu’au courage.

Diriez-vous que c’est un type d’infox spécifique à LinkedIn ? Sur cette plateforme, les publications « inspirantes » sont légion…

Pour les publications « inspirantes », le pire, c’est sur Instagram. Mais je ne peux pas aller me battre sur Instagram. L’avantage de LinkedIn, c’est que les gens sont habitués à lire du texte, et potentiellement les commentaires. Sur Instagram, tout est dans l’image. Les gens ne vont jamais lire ce qu’il y a en dessous. Donc nos « débunks » [articles de fact-checking] n’y seraient pas visibles.

Au-delà des publications « inspirantes », il y a effectivement des types d’infox plutôt spécifiques à LinkedIn. Disons qu’il y a des sujets qui ne sont pas, ou peu, traités ailleurs. Par exemple, des gens qui vont dire que le meilleur moyen de tester sa personnalité, c’est de faire son DISC ou son MBTI [deux tests de la personnalité], sans aucun recul. Dans ce cas, nous, si on est « tagué » [mentionné], on peut intervenir pour dire que des études scientifiques ont démontré que 50% des gens qui refont ces tests n’obtiennent pas les mêmes résultats, et donc que ces tests n’ont pas une grande valeur.

Clairement, sur X, si un utilisateur vend du DISC et explique que c’est génial, je ne suis pas sûr que quelqu’un intervienne pour le contredire. C’est pareil pour les sujets liés au management. Ce ne sont pas forcément des sujets qui vont être abordés sur Instagram ou X, alors que ça peut donner lieu à des pratiques dangereuses, des dérives sectaires, etc.

Plus généralement, quels types d’infox rencontrez-vous le plus souvent sur LinkedIn ?

Il y a des phases. On a eu évidemment beaucoup de demandes sur des posts politiques depuis les élections législatives [fin juin-début juillet 2024]. C’est devenu la catégorie numéro 1, mais la tendance est en train de retomber. La catégorie « Politique », avant les législatives, ça représentait en moyenne 15% des posts sur lesquels on intervenait. Or, au mois de juin, ça a représenté plus de 50%. Dans l’ensemble, on constate que les partis du NFP [Nouveau Front Populaire, coalition de gauche] se font beaucoup plus attaquer que d’autres.

Par ailleurs, on a aussi eu des cas de responsables politiques qui relayent très sérieusement des posts publiés par des comptes parodiques. C’est flippant, parce que les gens n’ont parfois plus aucun recul. Des théories manifestement fausses sont considérées comme plausibles par certaines personnes. Dans ce contexte, ce qui nous fait le plus peur, c’est que plusieurs grands médias détenus par l’extrême droite donnent parfois de la visibilité à certaines fake news, qui s’ancrent dans la société. Aujourd’hui, il y a une parole qui s’est ultra décomplexée sur LinkedIn.

Hors période électorale, c’est plutôt la catégorie des « publications inspirantes » (citations, posts sur le management, etc.) qui est la plus présente. Évidemment, on a aussi eu des phases où ça a été la santé.

Parlons un peu de votre fonctionnement. Comment fait-on pour vous soumettre une publication à vérifier ? Combien de posts douteux recevez-vous par jour ? Et comment choisissez-vous ceux que vous allez vérifier ?

On reçoit entre trois et dix posts par jour, et on en vérifie à peu près les deux tiers. Notre fonctionnement, c’est qu’on n’intervient pas de notre propre initiative. On ne choisit pas les posts sur lesquels on intervient. C’est la communauté qui nous demande d’aller faire des vérifications. Elle nous « tague » sous une publication, ou nous l’envoie en message privé, ou par mail. Sinon on ne s’en sortirait pas.

Tous les « tags », on les prend. Sauf si c’est un « auto-tag », c’est-à-dire si c’est l’auteur lui-même qui nous demande de vérifier sa publication. Dans ce cas, on ne le fait pas. On ne vérifie pas non plus les posts qui ont plus de trois jours, parce que notre commentaire ne sera pas vu, donc c’est beaucoup de travail pour rien. Enfin, on ne fait pas les sujets liés directement à la guerre israélo-palestinienne, parce qu’on manque souvent de sources fiables pour traiter l’info. Malheureusement, il y a trop peu de journalistes sur place. Et on sait que la désinformation est un outil de guerre très important. Nous on est des bénévoles, on ne veut pas non plus prendre trop de risques. Des deux côtés, il y a des gens violents.

Combien y a-t-il de fact-checkers derrière la page « C’est vrai ça ? » ? Quels sont les profils de vos membres ?

Nous sommes une petite trentaine de personnes, dont une douzaine de contributeurs « seniors », ayant plus de six mois d’expérience et plus de vingt débunks validés à leur actif. On a des allées et venues, parce que ça reste du bénévolat à 100%. Donc c’est en fonction des disponibilités de chacun, des envies, voire du niveau de colère face à une publication manifestement douteuse qui fait le buzz.

Qui sont les gens chez nous ? Juste des passionnés, des gens qui ne peuvent pas s’empêcher de chercher, vérifier les infos. C’est très divers en termes de métier. Ce ne sont pas que des cadres dirigeants, que des gens « Bac +5 ». On a des gens qui évoluent dans le monde de l’éducation, des sciences… Ils ont en commun une même envie de se remettre en question, d’apprendre des choses. Ce sont des passionnés. Des passionnés de la recherche d’infos. On s’est formé un peu à l’OSINT [Open Source Intelligence, la recherche d’informations disponibles en sources ouvertes]. On s’est formé au fact-checking en général.

Après, comme je le disais, ça dépend des disponibilités de chacun. Il y a des phases où tu es plus ou moins disponible, des phases où tu as plus ou moins envie, des phases où tu es plus ou moins en bonne santé mentale aussi. Parce que c’est très prenant, c’est très fatigant. Parfois, on se fait insulter par les gens qu’on débunke…

Justement, sur certaines plateformes, comme X ou Facebook, les fact-checkers sont parfois très critiqués, voire harcelés ou menacés… Avez-vous déjà été confronté à ces types de comportements sur LinkedIn ?

Ça arrive aussi sur LinkedIn, mais beaucoup moins que sur d’autres plateformes. C’est aussi pour ça qu’on reste que sur LinkedIn. Il y a peu de faux profils, il y a peu de profils anonymes, et donc il y a une certaine auto-modération. Les gens ne vont pas aller m’envoyer des menaces de mort tous les jours. Parce qu’ils sont faciles à retrouver, vu qu’on voit leur prénom, leur nom, leur employeur, etc. Les gens font quand même plus attention. Ils savent très bien que, n’ayant pas de pseudo, ils sont retrouvables. Donc ils vont modérer leurs propos, modérer leurs attaques. Comme je le disais, les insultes il y en a, mais très peu. C’est un réseau moins dangereux à ce niveau-là. Pour autant, il y a quand même des gens agressifs.

Évidemment, j’ai parfaitement conscience que pour les gens qu’on débunke, ça puisse faire mal. D’autant plus que beaucoup de personnes sont de bonne foi. Elles se sont juste fait avoir. C’est pour ça qu’on fait très attention. On ne sous-estime pas l’impact qu’on peut avoir. On sait que ça peut blesser, et ce n’est pas le but. Notre seul but, c’est que les gens fassent attention. Il arrive parfois qu’on se laisse un peu emporter par notre colère du jour. Dans ce cas, on s’excuse en privé auprès de la personne.

Dans l’ensemble, je dirais qu’il y a trois types d’attitudes face à notre travail de fact-checking :

1/Les fans de « C’est vrai ça ? », qui ne sont pas toujours d’accord avec nous, mais qui aiment lire nos débunks, voir nos sources et se faire leur propre idée

2/Les gens qui s’en foutent, la grande majorité

3/Les gens qui, quoi qu’on dise, nous accusent d’être payés par « Big Pharma », par Macron, etc. Pour eux, quoi qu’on dise, ce sera faux.

À vrai dire, il y a même une quatrième catégorie : les antivax qui nous critiquent sur les sujets liés aux vaccins, mais qui, pour tout le reste, adorent nos débunks, notre méthode. On en a quelques-uns comme ça, et c’est rigolo parce qu’on a presque des relations saines avec eux.

Ces dernières années, les grandes plateformes ont pris des mesures pour lutter contre les infox. Avec, par exemple, la mise en place d’un système d’étiquetage sur Facebook, de « notes de communauté » sur X, ou encore le bannissement de certains utilisateurs. En comparaison, LinkedIn a parfois été pointé du doigt pour son inaction. Quel regard portez-vous sur la politique de la plateforme vis-à-vis des contenus problématiques ?

La politique de la plateforme ? Il n’y en a pas. Il y a des détections automatiques, il y a des réactions à signalement, mais il n’y a pas de politique de modération intelligente. La modération, elle est très mal faite. Il y a plein d’astuces pour passer outre. Parfois, la modération va aussi supprimer les posts de scientifiques reconnus qui essayent de défendre leur position, mais vont être signalés en masse, par des antivax ou par exemple, parce qu’ils ont dit que [Didier] Raoult était un incompétent et une personne dangereuse pour la société.

Pour autant, la modération, c’est un sujet très complexe. Nous, on est contre la censure, on ne veut pas que des posts se fassent automatiquement bannir. Parce que le risque c’est que les gens partent sur d’autres plateformes, comme Telegram ou Odysee, où il n’y aura aucune modération, ni aucun contre-avis. Sur ces plateformes, ils seront irrattrapables.

J’aime beaucoup les approches de Facebook et X, que je les trouve assez intelligentes. Je trouve très bien le système de « notes », où la communauté peut dire sous un post « non, ça c’est faux ». C’est ce qu’on essaye de faire avec « C’est vrai ça ? » sur LinkedIn. La chance qu’on a eue, c’est que ça a plu. On a une grosse communauté. Du coup, si les gens qui s’interrogent sur l’authenticité d’un post prennent le réflexe d’aller lire les commentaires, ils verront notre débunk, parce que notre commentaire est beaucoup liké et est ainsi considéré comme le « plus pertinent ». Il est alors positionné comme premier commentaire sous le post.

Nous, la mission qu’on s’est donnée, c’est d’aider les gens à se faire leur propre avis. Aider les gens à comprendre ce qu’est une source fiable, ce qu’est un article scientifique revu par les pairs… Bref, qu’ils arrêtent de se faire avoir par ce qui est sensationnel. Moi, mon seul but, c’est que face à une publication douteuse, les gens aient le réflexe de se dire « ça a l’air cool, mais en même temps ce n’est peut-être pas vrai ».

Nous, avec l’expérience, on sait rapidement où chercher, ou regarder, pour identifier ce qui est faux. C’est ça qui est difficile lorsqu’on est confronté à un post douteux : identifier ce qui est faux dedans. Généralement, le post n’est pas faux à 100%. Les éléments faux sont entourés de choses vraies. On traite cinq débunks par jour en moyenne, sur des sujets très divers. Donc on va savoir où chercher, quoi chercher et comment chercher.

Bien sûr, on peut aussi se tromper. Ça arrive parfois, et la communauté nous le signale. Récemment, on a par exemple amendé notre débunk sur l’effet Dunning-Kruger. C’est l’énorme différence entre des fact-checkers sérieux et des désinformateurs. Les fact-checkers reviennent sur leurs erreurs et essayent de donner de la visibilité à leurs corrections. Les désinformateurs, eux, n’admettront jamais qu’ils se sont trompés.

Avant de publier un débunk, avez-vous un processus de contrôle pour limiter le risque d’erreurs ?

Concrètement, voilà comment ça fonctionne. On est « tagué » par quelqu’un. On reçoit donc une « alerte ». On met le post à vérifier dans un pot commun. L’un de nos membres peut alors signaler qu’il souhaite débunker le post en question. Ensuite, il a 24 heures pour faire ses recherches et proposer un débunk. Lorsque son débunk est proposé, un signal est envoyé à tous les « seniors » de l’association, qui vont faire une relecture avant publication. Si la personne qui a réalisé le débunk est nouvelle, il doit y avoir trois validations de membres « seniors » avant publication. Si le fact-checker est plus expérimenté, il faut deux validations. S’il s’agit d’un membre « senior », plus qu’une. Dans tous les cas, celui qui a écrit le débunk ne peut pas publier sans une validation par un tiers. Il y a toujours une relecture, des gens qui vont cliquer sur les liens, vérifier et voir si le débunk est complet et cohérent. Pour certains sujets nécessitant des connaissances spécifiques, on peut aussi faire appel à des experts.

La plateforme LinkedIn collabore-t-elle avec des organismes de fact-checking, comme peut par exemple le faire Facebook ?

Nous, on a zéro relation avec eux. Et il n’y a pas d’autre organisme de fact-checking que nous sur LinkedIn. Les grands organismes dont on est fan, AFP Factuel, CheckNews et autres, ne sont pas spécifiquement actifs sur LinkedIn.

Sur LinkedIn, la désinformation ne fait pas des millions de vues, comme sur X ou TikTok. C’est moins organisé, les gens vont moins réagir. Les posts douteux génèrent moins d’engagements. Du coup, LinkedIn n’est pas vu comme un réseau d’influence dans le domaine de la désinformation. Pourtant, pour nous, ça l’est, et probablement plus que X parce que ça touche des dirigeants, des chefs d’entreprise, des cadres, qui peuvent potentiellement avoir un impact bien pire que « Monsieur tout le monde ». Au sens où ces gens peuvent, sur la base d’une fausse information vue sur LinkedIn, impulser des changements d’organisation, de management, qui vont avoir un impact sur tout le monde dans leur entreprise. Par exemple un dirigeant d’entreprise qui, en période de pandémie, estimerait que le masque ne sert à rien, et refuserait que ses salariés en portent.

Ces dernières années ont été marquées par la démocratisation de l’intelligence artificielle (IA). Une démocratisation incarnée par le succès grandissant d’outils comme Midjourney, Dall-E, ou plus récemment Grok. Les infox générées par IA se rependent rapidement sur certaines plateformes. Avez-vous constaté un phénomène similaire sur LinkedIn ?

On ne voit pas d’impact de l’IA sur le nombre de publications mensongères qu’on reçoit chaque jour. Mais potentiellement, ça en facilite la création. Savoir rédiger des postes engageants, ce n’est pas si évident, et ChatGPT peut aider à le faire. Mais sur LinkedIn, tu n’es pas rémunéré à créer des publications qui font le buzz. Donc, tu vas moins chercher à créer une fausse image s’il n’y a pas un enjeu politique ou économique derrière.

Pourquoi des [Christian] Perronne et autres sont restés sur LinkedIn longtemps ? Parce qu’ils y vendaient leurs bouquins, leurs conférences… Si tu as un truc à vendre, tu as intérêt à être sur LinkedIn, parce qu’il y a quand même du monde qui a de l’argent. Tu ne fais pas juste une image pour faire le buzz, parce que ça ne t’apporte pas grand-chose. Bien sûr, il y en a quand même quelques-uns qui le font. Des gens qui sont juste là pour faire des « likes », parce que c’est de la dopamine, c’est valorisant. Mais si tu ne vends pas des prestations, ça ne t’apporte pas grand-chose.

Donc, pour l’instant, le « deepfake » est peu utilisé. Vu que LinkedIn n’est pas l’endroit où l’on va avoir le plus d’impact immédiat avec ce genre de contenu, les gens ont plutôt intérêt à aller sur X ou sur Instagram. Ça génère des revenus et plus de viralités que sur LinkedIn. Les comptes les plus influents sur LinkedIn font 2 000 likes par post. Tu n’en as que quelques-uns en France qui arrivent à faire ça. En gros, 2 000 likes sur un post, ça fait à peu près 200 000 vues. En termes d’audience, c’est donc important, mais pas autant que sur d’autres plateformes. Après, ce sont quand même des comptes qui sont suivis par des cadres actifs, des personnes qui sont en situation de travail, qui ont de l’argent, qui ont une influence. Donc, ça a potentiellement beaucoup plus d’impact que 2 millions d’étudiants, de personnes sans emploi, etc.

Pour conclure, la page « C’est vrai ça ? » compte aujourd’hui 90 000 abonnées. Avez-vous des projets pour renforcer encore votre visibilité ?

L’activité de débunking va rester bénévole. Mais on est en train de réfléchir à la création d’une fondation pour financer des projets pédagogiques de lutte contre la désinformation. On veut créer des livrets, des jeux et du contenu pour les profs, entre autres. Actuellement, on n’a clairement pas le temps, ni les moyens, de le faire. C’est un boulot. Il faut bosser avec un graphiste, un développeur web…

On veut aussi faire plus de conférences, plus d’interventions… Ce sont des projets qui prennent du temps, qu’on doit professionnaliser. Avec cette fondation, on va pouvoir le faire.

Pour découvrir l’initiative « C’est vrai ça ? », consultez sa page LinkedIn et son site internet

Retrouvez d’autres éclairages sur les infox.

Pour se renseigner sur l’offre de formation.

Pour nous contacter et nous suivre sur X, Facebook, Instagram, Bluesky et LinkedIn.

Ces articles peuvent vous intéresser

Ingérence électorale : la présidentielle américaine dans le viseur de Pékin

Alors que les Américains doivent se rendre aux urnes en novembre, le régime chinois accentue ses efforts pour semer la division parmi les électeurs. Deux études publiées en avril et en septembre, respectivement par le think tank britannique Institute for Strategic Dialogue (ISD) et...

Avec l’IA Grok, pas de garde-fous efficaces contre les infox

Le réseau social X (ex-Twitter) a présenté mi-août une nouvelle version de « Grok », son intelligence artificielle (IA) générative. Une fonctionnalité phare, jusqu’alors absente, a fait son apparition : la possibilité de générer des images. Selon l’entreprise américaine NewsGuard...

Grand entretien avec le fact-checker Alexandre Capron : « Chacun, à son niveau, peut être un premier rempart contre la désinformation »

Dans un entretien accordé à Infox.fr, Alexandre Capron, journaliste spécialiste de la vérification des contenus manipulatoires, disposant de 12 ans d’expérience sur la thématique de la désinformation à l’international, donne sa vision du fact-checking et ses astuces pour démêler le...