Assis devant un ordinateur il n’y a pas longtemps, un professeur d’histoire titulaire a été confronté à un défi que des milliards d’entre nous font chaque jour: décider de croire ou non à quelque chose sur Internet. Sur son écran, il y avait un article publié par un groupe appelé American College of Pediatricians qui discutait de la façon de gérer l’intimidation dans les écoles. Parmi les conseils qu’elle offrait: les écoles ne devraient pas mettre en évidence des groupes particuliers ciblés par l’intimidation, car cela pourrait attirer l’attention sur des «adolescents temporairement confus».

Fake News – se faire prendre par l’apparence

En parcourant le site, le professeur a pris note de l’adresse Web «.org» et d’une liste de citations à caractère académique. Le design sobre du site, dépourvu de vidéos flashy à lecture automatique, lui a donné de la crédibilité, pensa-t-il. Au bout de cinq minutes, il n’avait trouvé aucune raison de douter de l’article. «Je regarde clairement un site officiel», a-t-il déclaré.

Ce que le professeur n’a jamais réalisé en se concentrant sur les caractéristiques superficielles de la page, c’est que le groupe en question est une faction dissidente socialement conservatrice qui a fait irruption. 2002 de l’American Academy of Pediatrics sur la question de l’adoption par les couples de même sexe. Il a été accusé de promouvoir des politiques antigay, et le Southern Poverty Law Center le désigne comme un groupe haineux.

Fake News – donner sa confiance

La confiance était la question à portée de main. Le professeur livresque avait été invité à évaluer l’article dans le cadre d’une expérience menée par le psychologue de l’Université de Stanford, Sam Wineburg. Son équipe, connue sous le nom de Stanford History Education Group, a confié à de nombreux sujets de telles tâches dans l’espoir de répondre à deux des questions les plus épineuses de l’ère d’Internet: pourquoi même les plus intelligents d’entre nous sont-ils si mauvais pour juger de ce sur quoi se fier? la toile? Et comment pouvons-nous nous améliorer?

L’équipe de Wineburg a constaté que les Américains de tous âges, des préadolescents avertis en numérique aux universitaires à QI élevé, ne parviennent pas à poser des questions importantes sur le contenu qu’ils rencontrent sur un navigateur, ce qui ajoute aux recherches sur notre crédulité en ligne. D’autres études ont montré que les gens retweetent des liens sans cliquer dessus et comptent aussi beaucoup sur les moteurs de recherche. Un sondage Pew de 2016 a révélé que près d’un quart des Américains ont déclaré avoir partagé un reportage inventé. Au cours de ses expériences, le scientifique cognitif du MIT, David Rand, a découvert qu’en moyenne, les gens sont enclins à croire aux fausses nouvelles au moins 20% du temps. «Nous conduisons tous des voitures, mais aucun de nous n’a de permis», déclare Wineburg à propos de la consommation d’informations en ligne.

Notre incapacité à analyser la vérité de la fiction sur Internet est, bien entendu, plus qu’une question académique. Le fléau des «fake news» et ses nombreux cousins ​​- du clickbait au «deep fakes» (vidéos réalistes montrant des événements qui ne se sont jamais produits) – ont des experts craintifs pour l’avenir de la démocratie. Les politiciens et les technologues ont averti que les intrus tentent de manipuler les élections dans le monde entier en répandant de la désinformation. C’est ce que les agents russes ont fait en 2016, selon les agences de renseignement américaines. Et le 31 juillet, Facebook a révélé avoir trouvé des preuves d’une campagne d’influence politique sur la plate-forme avant les élections de mi-mandat de 2018. Les auteurs d’une page aujourd’hui disparue ont amené des milliers de personnes à exprimer leur intérêt à assister à une manifestation inventée qui visait apparemment à mettre les nationalistes blancs et les gauchistes dans les mêmes rues.

Les enjeux de l’information

Mais les enjeux sont encore plus grands que les élections. Notre capacité à contrôler les informations est importante chaque fois qu’une mère demande à Google si son enfant doit être vacciné et chaque fois qu’un enfant rencontre un déni de l’Holocauste sur Twitter. En Inde, de fausses rumeurs sur les enlèvements d’enfants qui se sont répandues sur WhatsApp ont incité des foules à battre à mort des innocents. «C’est l’équivalent d’une crise de santé publique», déclare Alan Miller, fondateur du News Literacy Project non partisan.

Il n’y a pas de solution miracle, bien que les entreprises technologiques subissent une pression croissante pour trouver des solutions. Facebook a perdu plus de 120 milliards de dollars de valeur en actions en une seule journée de juillet alors que la société faisait face à une série de problèmes limitant sa croissance, y compris des critiques sur la façon dont les théories du complot répartis sur la plate-forme. Mais les ingénieurs ne peuvent pas apprendre aux machines à décider de ce qui est vrai ou faux dans un monde où les humains ne sont souvent pas d’accord.

Dans un pays fondé sur la liberté d’expression, les débats sur qui juge la vérité et le mensonge en ligne sont controversés. Beaucoup ont salué la décision prise par les grandes entreprises de technologie au début du mois d’août de supprimer le contenu du théoricien de la conspiration florissante Alex Jones, qui a allégué que les traînées d’avions de passagers endommagent le cerveau des gens et répandent des affirmations selon lesquelles les familles des victimes du massacre de Sandy Hook sont les acteurs d’un canular élaboré. Mais d’autres ont crié à la censure. Et même si les forces de l’ordre et les agences de renseignement pouvaient dénicher tous les mauvais acteurs avec un clavier, il semble imprudent de confier au gouvernement la responsabilité de nettoyer l’Internet des déclarations trompeuses.

Ce qui est clair, cependant, c’est qu’il existe une autre partie responsable. Le problème n’est pas seulement des robots malveillants ou des trolls épris de chaos ou des adolescents macédoniens poussant de fausses histoires à but lucratif. Le problème c’est aussi nous, le lecteurs sensibles. Et des experts comme Wineburg estiment que mieux nous comprenons la façon dont nous pensons dans le monde numérique, plus nous avons de chances de faire partie de la solution.

Fake news – pris par nos impulsions

NOUS NE TOMBONS PAS pour de fausses nouvelles simplement parce que nous sommes stupides. Souvent, il s’agit de laisser les mauvaises impulsions prendre le dessus. À une époque où l’Américain moyen passe 24 heures par semaine en ligne, alors que nous jonglons toujours entre les boîtes de réception, les flux et les alertes, il est facile de penser que nous n’avons pas le temps de lire autre chose que des titres. Nous sommes des animaux sociaux et le désir de goûts peut remplacer le sentiment latent qu’une histoire semble risquée. Les convictions politiques nous conduisent à une pensée paresseuse. Mais il y a une impulsion encore plus fondamentale en jeu: notre désir inné d’une réponse facile.

Les humains aiment se considérer comme des créatures rationnelles, mais la plupart du temps, nous sommes guidés par une pensée émotionnelle et irrationnelle. Les psychologues l’ont montré à travers l’étude des raccourcis cognitifs appelés heuristiques. Il est difficile d’imaginer passer autant qu’un voyage à l’épicerie sans ces gains de temps utiles. «Vous ne pouvez pas et ne pouvez pas prendre le temps et l’énergie nécessaires pour examiner et comparer chaque marque de yaourt», déclare Wray Herbert, auteur de On Second Thought: Outsmarting Your Mind’s Hard-Wired Habits. Nous pourrions donc plutôt nous fier à ce que l’on appelle l’heuristique de familiarité, notre tendance à supposer que si quelque chose est familier, il doit être bon et sûr.

Ces habitudes d’esprit ont sûrement aidé nos ancêtres à survivre. Le problème est que trop compter sur eux peut également induire les gens en erreur, en particulier dans un environnement en ligne. Dans l’une de ses expériences, Rand du MIT a illustré le côté obscur de l’heuristique de la fluidité, notre tendance à croire à des choses auxquelles nous avons été exposés dans le passé. L’étude a présenté des sujets avec des titres – certains faux, certains vrais – dans un format identique à ce que les utilisateurs voient sur Facebook. Rand a constaté que le simple fait d’être exposé à de fausses nouvelles (comme un article affirmant que le président Trump allait se débarrasser du projet) rendait les gens plus susceptibles d’évaluer ces histoires comme exactes plus tard dans l’expérience. Si vous avez déjà vu quelque chose auparavant, « votre cerveau l’utilise inconsciemment comme une indication que c’est vrai », dit Rand.

C’est une tendance dont les propagandistes sont conscients depuis toujours. La différence est qu’il n’a jamais été aussi facile d’obtenir des globes oculaires sur le message, ni d’obtenir des ennemis du message pour l’aider à le diffuser. Les chercheurs qui ont mené le sondage Pew ont noté qu’une des raisons pour lesquelles les gens partagent sciemment des nouvelles inventées est de «qualifier» les histoires de fausses. Cela pourrait rendre une publication populaire parmi les pairs partageant les mêmes idées sur les médias sociaux, mais cela peut également aider les fausses déclarations à sombrer dans la conscience collective.

Notre cerveau façonné par internet

Les universitaires commencent à peine à comprendre toutes les façons dont notre cerveau est façonné par Internet, une des principales raisons pour lesquelles il est si délicat d’arrêter la propagation de la désinformation. Une tentative de Facebook montre comment l’introduction de nouveaux signaux dans ce domaine occupé peut se retourner contre vous. Dans l’espoir de réduire les informations indésirables, la société a commencé à attacher des avertissements aux messages contenant des affirmations que les vérificateurs de faits avaient jugées fausses. Mais une étude a révélé que cela peut rendre les utilisateurs plus susceptibles de croire tout message non marqué. Tessa Lyons-Laing, chef de produit qui travaille sur le fil d’actualité de Facebook, dit que la société a caressé l’idée d’alerter les utilisateurs des canulars qui circulaient chaque jour sur le Web avant de se rendre compte qu’une «approche de vaccination» pourrait être contre-productive. «Nous essayons vraiment de comprendre le problème et de réfléchir à la recherche et donc, dans certains cas, d’avancer plus lentement», dit-elle.

Une partie du problème est que les gens utilisent toujours des raccourcis obsolètes, le type de raccourcis que nous avons appris à utiliser dans une bibliothèque. Prenons le professeur de l’étude de Wineburg. Une liste de citations signifie une chose lorsqu’elle apparaît dans un livre qui a été approuvé par un éditeur, un vérificateur de faits et un bibliothécaire. Cela en signifie une autre sur Internet, où chacun a accès à une imprimerie personnelle. Les journaux avaient l’habitude de séparer physiquement nouvelles et commentaires, afin que nos esprits puissent facilement saisir ce qui était quoi. Mais aujourd’hui, les deux tiers des Américains reçoivent des nouvelles des médias sociaux, où les publications des éditeurs reçoivent le même emballage que les vœux d’anniversaire et les diatribes. Le contenu qui justifie une réponse émotionnelle est mélangé à des choses qui nécessitent une considération plus approfondie. «Tout semble identique», déclare Claire Wardle, chercheuse à Harvard, «notre cerveau doit donc travailler plus dur pour comprendre ces différents types d’informations.»

Au lieu de travailler plus dur, nous essayons souvent d’externaliser le travail. Des études ont montré que les gens supposent que plus un élément apparaît haut dans les résultats de recherche Google, plus il est fiable. Mais les algorithmes de Google font apparaître un contenu basé sur des mots clés, pas sur la vérité. Si vous demandez comment utiliser des graines d’abricot pour guérir le cancer, l’outil trouvera consciencieusement des pages affirmant qu’elles fonctionnent. «Un moteur de recherche est un moteur de recherche», déclare Richard Gingras, vice-président des actualités chez Google. « Je ne pense pas que quiconque veuille vraiment que Google soit l’arbitre de ce qui est ou n’est pas une expression acceptable. »

Ce n’est qu’un exemple de la façon dont nous devons recycler notre cerveau. Nous sommes également enclins à faire confiance aux visuels, déclare Wardle. Mais certaines photos sont falsifiées, et d’autres légitimes sont placées dans de faux contextes. Sur Twitter, les gens utilisent la taille des abonnés des autres comme indicateur de fiabilité, mais des millions d’abonnés ont été payés (et environ 10% des «utilisateurs» peuvent être des robots). Dans ses études, Wineburg a découvert que les gens de tous âges étaient enclins à évaluer les sources en fonction de fonctionnalités telles que l’URL du site et la conception graphique, des éléments faciles à manipuler.

Il est logique que les humains regardent à peu près n’importe quoi quand ils sont tellement épuisés par les nouvelles. Mais quand nous résistons aux jugements instantanés, nous sommes plus difficiles à tromper. «Il suffit de s’arrêter et de réfléchir», dit Rand à propos des expériences qu’il a menées sur le sujet. «Toutes les données que nous avons collectées suggèrent que c’est le vrai problème. Ce n’est pas que les gens soient très biaisés et utilisent leur capacité de raisonnement se tromper en croyant des choses folles. C’est juste que les gens ne s’arrêtent pas. Ils continuent. »

C’EST, BIEN SÛR, la façon dont les plateformes de médias sociaux ont été conçues. Les flux sans fin et les récompenses intermittentes sont conçus pour vous permettre de lire. Et il y a d’autres facteurs environnementaux en jeu, comme la capacité des gens à rechercher facilement des informations qui confirment leurs croyances. Mais Rand n’est pas le seul universitaire à croire que nous pouvons réduire considérablement les erreurs si nous ralentissons.

Wineburg, un vétéran de 18 ans de Stanford, travaille dans un petit bureau au centre du campus bordé de palmiers. La spécialité de son groupe est de développer des programmes que les enseignants de tout le pays utilisent pour former les enfants à la pensée critique. Maintenant, ils essaient de mettre à jour ces leçons pour la vie à l’ère numérique. Avec l’aide d’un financement de Google, qui a consacré 3 millions de dollars au projet d’alphabétisation numérique dont ils font partie, les chercheurs espèrent déployer de nouvelles règles de la route d’ici l’année prochaine, décrivant des techniques que tout le monde peut utiliser pour tirer de meilleures conclusions sur le la toile.

Check news ?

Son groupe ne propose pas que l’intelligence des idées; il les teste. Mais alors qu’ils entreprenaient de développer ces leçons, ils ont eu du mal à trouver des recherches sur les meilleures pratiques. «Où sont les études sur ce que font les superstars, pour que nous puissions en tirer des leçons?» Wineburg se souvient avoir réfléchi, assis dans le bureau de l’équipe sous une impression de la Tabula Rogeriana, une carte médiévale qui représente le monde d’une manière que nous considérons maintenant comme à l’envers. Finalement, un courrier électronique froid à un bureau de New York a révélé un modèle prometteur: des vérificateurs de faits professionnels.

Les vérificateurs de faits, ont-ils constaté, n’ont pas été la proie des mêmes faux pas que d’autres groupes. Lorsqu’on leur a présenté la tâche de l’American College of Pediatricians, par exemple, ils ont presque immédiatement quitté le site et ont commencé à ouvrir de nouveaux onglets pour voir ce que le Web au sens large avait à dire sur l’organisation. Wineburg a surnommé cette lecture latérale: si une personne ne quitte jamais un site – comme le professeur n’a pas réussi à le faire – elle porte essentiellement des œillères. Les vérificateurs de faits ont non seulement consulté des sources supplémentaires, mais ont également posé leurs références côte à côte, pour mieux garder leurs repères.

Dans un autre test, les chercheurs ont demandé aux sujets d’évaluer le site Web MinimumWage.com. En quelques minutes, 100% des fact-checkers ont compris que le site est soutenu par une société de relations publiques qui représente également l’industrie de la restauration, un secteur qui s’oppose généralement à l’augmentation du salaire horaire. Seuls 60% des historiens et 40% des étudiants de Stanford ont fait la même découverte, nécessitant souvent une seconde invite pour savoir qui était derrière le site.

La capacité à prendre du recul

Une autre tactique utilisée par les vérificateurs de faits que d’autres n’ont pas été ce que Wineburg appelle la «restriction des clics». Ils analysaient une page entière de résultats de recherche – peut-être même deux – avant de choisir une voie à suivre. «C’est la capacité de prendre du recul et de se faire une idée du territoire dans lequel vous avez atterri», dit-il, «plutôt que de cliquer sur la première chose de façon promiscue.» Ceci est important, car les personnes ou les organisations ayant un agenda peuvent jouer sur les résultats de recherche en emballant leurs sites avec des mots-clés, de sorte que ces sites atteignent le sommet et plus les évaluations objectives sont enterrées.

Les leçons qu’ils ont développées incluent de telles techniques et apprennent aux enfants à toujours commencer par la même question: qui se cache derrière l’information? Bien qu’elle soit toujours en phase d’expérimentation, un projet pilote mené par l’équipe de Wineburg dans un collège de Californie au printemps dernier a montré que de si petits changements de comportement peuvent donner des résultats significatifs. Une autre technique qu’il défend est encore plus simple: il suffit de la lire.

On retweet sans checker et sans penser

Une étude a révélé que 6 liens sur 10 sont retweetés sans que les utilisateurs lisent quoi que ce soit d’autre que la somme de ceux-ci par quelqu’un d’autre. Un autre a constaté que les fausses histoires voyagent six fois plus vite que les vraies sur Twitter, apparemment parce que les mensonges stimulent mieux les sentiments de surprise et de dégoût. Mais prendre un peu de temps peut nous aider à éviter les réactions instinctives, afin de ne pas ajouter aveuglément des déchets aux vastes flottilles qui encombrent déjà le Web. «Ce qui fait que les affirmations fausses ou hyper partisanes fonctionnent vraiment bien, c’est qu’elles sont un peu bizarres», dit Rand. «Cette même chose qui fait réussir à se répandre en ligne est la même chose qui, à la réflexion, vous ferait réaliser que ce n’était pas vrai. »

LES ENTREPRISES TECHNOLOGIQUES ont un grand rôle à jouer pour endiguer la vague de désinformation, et elles y travaillent. Mais ils ont également réalisé que ce que Wardle de Harvard appelle notre «trouble de l’information» ne peut être résolu par les seuls ingénieurs. Les algorithmes sont efficaces pour identifier de faux comptes, et les plateformes en signalent des millions chaque semaine. Pourtant, les machines ne pouvaient mener Facebook que jusqu’à présent dans l’identification de la campagne d’influence la plus récente.

Une page inauthentique, intitulée «Résistants», a lancé une contre-protestation à un rassemblement des «droits civiques blancs» prévu pour août à Washington, D.C., et a obtenu des organisations légitimes pour aider à le promouvoir. Plus de 2600 personnes ont exprimé leur intérêt à aller avant que Facebook ne révèle que la page faisait partie d’une opération coordonnée, a désactivé l’événement et alerté les utilisateurs. La société a embauché des milliers de réviseurs de contenu qui ont le sophistication pour éliminer les mauvaises herbes à travers des mélanges délicats de vérité et de mensonges. Mais Facebook ne peut pas employer suffisamment d’humains pour examiner manuellement les milliards de messages publiés chaque jour, dans une myriade de pays et de langues.

De nombreux articles trompeurs n’enfreignent pas les conditions de service des entreprises technologiques. Facebook, l’une des entreprises qui a supprimé le contenu de Jones, a déclaré que la décision ne concernait pas de «fausses nouvelles» mais des interdictions contre la rhétorique telle que le «langage déshumanisant». Apple et Spotify ont cité des règles contre les discours de haine, qui sont généralement protégés par le premier amendement. « Avec la liberté d’expression, vous obtenez le bon et le mauvais, et vous devez accepter les deux », déclare Gingras de Google. «Et j’espère que vous avez une société qui peut faire la distinction entre les deux.»

Vous avez également besoin d’une société qui se soucie de cette distinction. Les écoles ont du sens comme réponse, mais il faudra de l’argent et de la volonté politique pour intégrer de nouveaux programmes dans les salles de classe. Les enseignants doivent maîtriser le nouveau matériel et former les élèves à être sceptiques sans eux cyniques. «Une fois que vous commencez à amener les enfants à remettre en question des informations», déclare Sarah McGrew de Stanford, «ils peuvent tomber dans cette attitude où rien n’est plus fiable.» Les défenseurs veulent enseigner aux enfants d’autres compétences défensives, comme comment effectuer une recherche inversée sur une image (pour s’assurer qu’une photo représente vraiment ce que quelqu’un dit qu’elle est) et comment taper une requête neutre dans la barre de recherche. Mais même si les cours parfaits sont diffusés gratuitement en ligne, tous ceux qui ont déjà obtenu leur diplôme devront y participer. Ils devront prendre des initiatives et aussi être prêts à remettre en question leurs préjugés, à remettre en question les informations qu’ils aimeraient croire. Et s’appuyer sur l’ouverture d’esprit pour vaincre les tendances tribales ne s’est pas avéré une formule gagnante dans les recherches passées de la vérité.

C’est pourquoi de nombreux défenseurs suggèrent que nous cherchions un autre outil puissant: la honte. Wardle dit que nous devons rendre le partage d’informations erronées aussi honteux que l’alcool au volant. Wineburg invoque le mouvement environnemental, disant que nous devons cultiver une prise de conscience de la «pollution numérique» sur Internet. «Nous devons amener les gens à penser qu’ils jettent des ordures», dit Wineburg, «en faisant parvenir des choses qui ne sont pas vraies. L’idée est de faire voir aux internautes l’effet global de petites actions, à savoir que des clics un par un et mal avisés contribuent à faire du Web un endroit toxique. Avoir une population bien informée peut être, dans l’ensemble, aussi important pour la survie que d’avoir de l’air et de l’eau propres. «Si nous ne pouvons pas nous rassembler en tant que société autour de ce problème», déclare Wineburg, «c’est notre destin.»

ESPRITS DANGEREUX

Les universitaires essaient toujours de comprendre toutes les façons dont nous sommes vulnérables à la désinformation sur Internet. Les lecteurs déclarent être submergés par le volume de contenu qu’ils rencontrent quotidiennement en ligne. Voici quelques-unes des raisons pour lesquelles nous sommes susceptibles de croire à des allégations douteuses – et pourquoi nous jouons un rôle dans leur diffusion.

EXPOSITION INDÉCENTE

Le scientifique cognitif du MIT, David Rand, a montré que le simple fait d’être exposé à de fausses nouvelles rend les gens plus susceptibles de croire les revendications. Cet effet de «vérité illusoire» fonctionne même lorsque de telles affirmations vont à l’encontre de l’idéologie politique du lecteur. Cela peut être dû au fait que nous nous appuyons inconsciemment sur des raccourcis cognitifs, appelés heuristiques, pour prendre des décisions rapides sur ce à quoi faire confiance en ligne. Ces habitudes de l’esprit peuvent amener les gens à supposer, par exemple, que si quelque chose est familier, il est également sûr.

CRÉATURES SOCIALES

Dans un sondage Pew de 2016, 23% des Américains ont déclaré avoir partagé une histoire inventée. Alors que beaucoup l’ont fait sans le savoir, 14% ont dit qu’ils savaient que c’était faux à l’époque. Les experts suggèrent que notre profond désir de commentaires sociaux, qui peut prendre la forme de retweets ou de likes sur les médias sociaux, peut l’emporter sur toute hésitation que nous pourrions avoir à partager des informations inexactes.

LA DERNIÈRE SENSATION

Une autre étude menée au MIT a révélé que les affirmations selon lesquelles les vérificateurs de faits jugés faux voyageaient plus rapidement et plus loin sur Twitter que les affirmations qu’ils jugeaient vraies. Les auteurs ont également déterminé que les fausses allégations étaient plus susceptibles de susciter des sentiments de surprise et de dégoût. En Inde, où des rumeurs virales d’enlèvements se sont répandues sur WhatsApp et ont conduit des foules à tuer des étrangers, la société de technologie a diffusé des publicités demandant aux gens de «remettre en question les informations qui vous dérangent».

SEO Inside – agence de référencement Google