DOSSIER
Loïc Schwartz

À la recherche des infox

N° 375 - Publié le 7 octobre 2019

De fausses nouvelles se glissent parfois dans le flux de l'information. Comment les repérer ?
L’éclairage de Damien Belvèze, à la bibliothèque de l’Université de Rennes 1.

Qu’appelle-t-on “fake news” ? 

Ce sont des informations inexactes ou fausses. Le terme “fake news” a été rendu célèbre par Donald Trump. Il qualifie ainsi les médias allant à l’encontre de sa politique ! Il est préférable de parler de désinformations, appelées aussi infox. Ce sont des faits non établis ou déformés.

Ce phénomène est-il récent ?

La désinformation existe depuis longtemps. En juillet 1870, une dépêche a servi de prétexte à la guerre entre la France et la Prusse1. Ce qui change aujourd’hui, c’est la rapidité avec laquelle les informations se partagent. Une étude parue l’an dernier dans la revue Science2 montre que pour atteindre environ mille personnes, un correctif met six fois plus de temps que l’information qu’il tente de corriger. « Un mensonge peut faire le tour de la Terre, le temps que la vérité mette ses chaussures », disait Mark Twain.

La propagation d’une infox est-elle toujours volontaire ?

Non, une désinformation peut provenir d’un détournement qui veut simplement faire rire au départ. Pensez au site Gorafi3. Largement diffusée, l’information parodique est parfois relayée au premier degré par des personnes ne connaissant pas ce genre de publication. Il est aussi très facile de décontextualiser une image, en lui attribuant une autre légende. On parle alors de “cheap fake”. Cela peut tromper de nombreux internautes.

D’où viennent-elles ?

D’un individu, d’un groupe d’intérêt4 ou même d’un État. Ce dernier agit parfois à travers ses agences de presse. On peut citer l’agence Xinhua, liée au gouvernement chinois. En toute opacité, elle a rétribué récemment Twitter pour diffuser des tweets diffamant les manifestants à Hong Kong5.

Un ouvrage6 vient de paraître sur les groupes d’intérêt. Il démontre qu’aux États-Unis, les groupes de pression de droite et d’extrême-droite sont très à l’aise sur les plateformes, notamment Facebook. En développant des stratégies de communication efficaces, ils deviennent très présents et tirent mieux parti d’Internet que leurs opposants. Nous ne voyons pas toujours la forte présence de certains groupes parmi nos contacts ! Il faudrait suivre des comptes très différents sur les réseaux sociaux, y compris ceux qui ne vont pas dans notre sens. Nous sommes enfermés dans des bulles de filtrage.

D'où vient ce filtrage ?

Sur Facebook ou Twitter, l’algorithme7 suggère uniquement, ou majoritairement, des comptes qui suivent les mêmes idées que nous. Mais ces comptes peuvent relayer de fausses nouvelles. Quand elles confortent notre opinion, nous ne cherchons pas à les vérifier.

Le phénomène prend-il de l’ampleur ?

Comme une fausse information joue souvent sur l’inattendu, elle est très fortement partagée ! Facebook,  Twitter et Instagram favorisent ainsi le buzz. C’est logique, car ces plateformes sont financées par des annonceurs pour mettre en avant des nouvelles "sensationnelles".

Difficile d’avoir confiance…

Le public est en demande de transparence. Le gouvernement joue un rôle pour prémunir les citoyens de campagnes de désinformation. En France, pour les périodes électorales, c’est l’objet de la loi dite “Fake news”8.

Mais les gouvernements peuvent parfois propager eux-mêmes des infox !

Ce fut le cas lors des incidents à la Pitié-Salpêtrière le 1er mai. Le mieux est de permettre à la population d’acquérir une meilleure culture de l’information, notamment dans les écoles et les bibliothèques.

Qui est touché ?

Les personnes âgées ne sont pas forcément conscientes de l’ampleur du faux sur le web. Elles ignorent à quel point il est facile de créer de fausses informations, contrairement aux plus jeunes. Lors d’une formation auprès des étudiants, j’ai découvert qu’ils sont nombreux à connaître la recherche d’images inversée9. Elle permet de repérer des images re-légendées et d’éviter des arnaques en ligne, quand un site utilise des photos d’autres sites. Les jeunes ont une culture numérique façonnée par leurs usages quotidiens et renforcée avec leurs enseignants.

Comment combattre ces fake news ?

Sur Internet, les algorithmes peuvent être améliorés. Sous une vidéo YouTube prétendant que l’homme n’a jamais mis les pieds sur la Lune, Google avait intégré un lien pour renvoyer vers l’article Wikipédia qui relate les faits historiques. Mais il arrive qu’il y ait des ratés. Quand Notre-Dame brûlait, un algorithme de YouTube a associé les images avec celles du 11 septembre 2001. Cela donnait l’impression que l’origine de l’incendie était criminelle.

  Chacun peut aussi changer ses pratiques. Certains moteurs de recherche, comme Qwant10, n’utilisent pas les données personnelles de l’internaute pour l’orienter vers ce qui l’intéresse déjà. Cela limite le risque d’être enfermé dans une bulle de filtrage. À l’Université de Rennes 1, Qwant est ainsi installé par défaut. Côté formation, une approche en psychologie pourrait être intégrée dans les cursus. Les étudiants prendraient connaissance des biais cognitifs11 qui nous rendent vulnérables face aux infox. Lors des formations proposées par la bibliothèque de l'Université de Rennes 1, nous visons à leur apprendre à analyser la véracité d’un document. C’est là que la lutte contre les fake news commence !

MARION GUILLAUMIN

1. Une dépêche officielle a été envoyée par le chancelier prussien Bismarck aux ambassades. Elle s’est inspirée d'un article très alarmiste, publié la veille dans un journal allemand.
2. « The spread of true and false news online », Soroush Vosoughi, Deb Roy & Sinan Aral. Science, 2018.
3. Site d’informations parodique (www.legorafi.fr).
4. Organisation qui cherche à influencer les décisions des autorités pour défendre collectivement un intérêt spécifique.
5. Des tweets sponsorisés ont été mis en avant sur le fil d’actualité des internautes.
6. « The Revolution that wasn’t », Jen Schradie, Harvard University Press, 2019.
7. Suite d’opérations informatiques qui gèrent l’affichage des contenus.
8. Loi relative à la lutte contre la manipulation de l'information.
9. L'utilisateur soumet une image comme requête au lieu de mots clés (par exemple sur www.tineye.com). Le résultat de la requête indique les sites utilisant cette image ou d’autres similaires.
10. StartPage et Duck Duck également.
11. Raisonnement systématique, inconscient et illogique. Le biais de disponibilité, par exemple, est le fait de ne pas chercher d’autres informations que celles immédiatement disponibles.

TOUT LE DOSSIER

Abonnez-vous à la newsletter
du magazine Sciences Ouest

Suivez Sciences Ouest