< Retour au blog

Sur TikTok, le jeune public exposé à la désinformation

publié le 30/04/2021

Très populaire chez les moins de 14 ans, la plateforme de partage de courtes vidéos TikTok n’échappe pas à la désinformation. Des études menées par Media Matters for America, une organisation à but non lucratif qui analyse les fake news diffusées par l’extrême droite aux Etats-Unis, apportent un éclairage sur ce phénomène. Ces études mettent en lumière les failles des dispositifs anti-infox de la plateforme. Elles montrent également que l’algorithme de recommandation de TikTok favorise les « bulles de filtre ».

Contourner les restrictions : les techniques des émetteurs de fausses informations

TikTok assure être pleinement mobilisé dans la lutte contre les vidéos véhiculant des informations manipulées, trompeuses ou inexactes. En février 2021, le réseau social a ainsi annoncé que les contenus douteux contiendront dorénavant une bannière destinée à avertir les internautes qui les visionnent. Les spectateurs qui veulent partager ces contenus seront invités à ne pas le faire. En outre, aux Etats-Unis, 11,7 millions de vidéos ont été supprimées de la plateforme entre le 1er juin et le 31 décembre 2020 pour avoir enfreint les conditions d’utilisation. Parmi celles-ci, près de 350 000 contenaient de fausses informations en lien avec les élections présidentielles de 2020.

Comme d’autres plateformes (Twitter, Facebook…), TikTok a banni certains sites et certaines personnalités connues pour diffuser exclusivement des informations erronées. Par exemple, le site complotiste américain InfoWars, ou son fondateur Alex Jones. De plus, les termes de recherche qui leur sont associés sont théoriquement bloqués. Cependant, Media Matters for America démontre que cette restriction peut aisément être contournée. Ainsi, la simple suppression d’une voyelle (Alx Jones) permet d’accéder à des comptes relayant des extraits de vidéos InfoWars, dont certains atteignent plusieurs millions de vues. Dans certains cas, ces comptes font figurer dans la section commentaire un lien URL permettant à l’utilisateur qui le souhaite de visionner, sur un site externe, la totalité du contenu.

Un algorithme de recommandation favorisant les « bulles de filtres »

Selon Media Matters for America, l’algorithme de recommandation de TikTok est un autre facteur susceptible d’aggraver la propagation des fausses informations sur la plateforme. En effet, cet algorithme favorise les « bulles de filtres ». Ainsi, un internaute qui suit un compte consacré à une thématique spécifique sera incité à s’abonner à d’autres comptes du même type. Cette incitation s’opère via l’onglet « Pour toi », présent sur la page d’accueil, qui propose à l’utilisateur des contenus adaptés à ses goûts. Ceux-ci sont définis en fonction de ses abonnements et des vidéos qu’il consulte. Un internaute ayant déjà été exposé à des infox est donc automatiquement conduit vers d’autres contenus erronés. A mesure qu’il se conforme aux recommandations, les comptes suggérés par TikTok sont même de plus en plus radicaux.

Cet engrenage problématique peut également déclencher une spirale complotiste chez des individus ayant consulté involontairement de fausses nouvelles. Ce risque est d’autant plus grand que les comptes diffusant de la désinformation dissimulent souvent leur véritable objet pour attirer plus d’abonnés. En apparence inoffensif, le compte « Conscious Content : Learn and inspire ! » relayent par exemple des vidéos d’Alex Jones.

Si TikTok assure être mobilisé contre les infox, Media Matters for America met en évidence la nécessité de renforcer les dispositifs existants. Le blocage de certains termes de recherche devrait notamment être élargi afin d’empêcher les possibilités de contournement les plus évidentes. Ces mesures doivent aller de pair avec la promotion d’initiatives d’éducation à l’information adaptées au public particulièrement jeune de la plateforme.

Retrouvez d’autres éclairages sur les infox

Pour se renseigner sur l’offre de formation.

Pour nous contacter et nous suivre sur Twitter et LinkedIn.

Ces articles peuvent vous intéresser

États-Unis : l’élection présidentielle sous la menace de l’IA

Alors que la moitié de la population mondiale est appelée aux urnes en 2024, le risque que l’intelligence artificielle (IA) soit utilisée à des fins malveillantes est un enjeu majeur. Faux articles, faux enregistrements audio… Les dangers sont multiples. Une étude du Center for Countering...

Infox générées par l’IA : un réel pouvoir de persuasion

La désinformation générée par l’intelligence artificielle (IA) peut être aussi convaincante que la désinformation d’origine humaine. Il s’agit du principal enseignement d’une étude publiée en février 2024 par des chercheurs des universités américaines de Georgetown et Stanford....

Sur YouTube, des internautes moins protégés contre les nouveaux contenus climatosceptiques

L’analyse de plusieurs milliers de vidéos YouTube suggère que de nouvelles infox sur le climat, axées sur la mise en cause des militants, des scientifiques et des énergies propres, sont désormais dominantes dans les contenus climatosceptiques hébergés sur la plateforme. Parallèlement, les...