Les entreprises de médias sociaux explorent des solutions radicales en matière de modération.

La multiplication des discours trompeurs des candidats au Congrès américain sur des sujets tels que l’intégrité des élections a relancé la pression sur les plateformes de médias sociaux à l’approche du scrutin de novembre. Et l’impression que les entreprises technologiques ne font pas grand-chose pour lutter contre la désinformation soulève des questions quant à leurs obligations démocratiques et pose des risques commerciaux. Mais, de manière peut-être surprenante, de récentes initiatives suggèrent que les plateformes pourraient être en mesure de canaliser les motivations partisanes pour démocratiser la modération.

L’une des explications de la réponse apparemment tiède des plateformes est la pression contradictoire que les entreprises subissent de la part des critiques. Sept adultes américains sur dix – et la plupart des experts – considèrent la désinformation comme un « problème majeur » et estiment que les entreprises de l’internet devraient faire davantage pour enrayer sa propagation. Pourtant, d’éminents politiciens républicains ont qualifié la modération de « censure » et menacé d’adopter une législation restreignant la capacité des plateformes à s’autoréguler. La réglementation pose de sérieux problèmes au modèle économique des entreprises de médias sociaux, tout comme la perte d’utilisateurs désabusés par le sentiment que la désinformation ou les préjugés politiques sont monnaie courante.

Comment les entreprises de médias sociaux peuvent-elles s’engager dans une modération significative tout en échappant aux accusations de partialité et de censure ? Une solution potentielle que les plateformes ont commencé à tester consiste à démocratiser la modération par la vérification des faits par la foule. Au lieu de s’appuyer uniquement sur des vérificateurs de faits professionnels et des algorithmes d’intelligence artificielle, elles se tournent vers leurs utilisateurs pour qu’ils les aident à prendre le relais.

Cette stratégie présente de nombreux avantages. Tout d’abord, le recours à des profanes pour vérifier les faits est évolutif, ce qui n’est pas le cas de la vérification professionnelle des faits, qui repose sur un petit groupe d’experts hautement qualifiés. Ensuite, cette méthode est rentable, surtout si les utilisateurs sont disposés à signaler les contenus inexacts sans être rémunérés. Enfin, comme la modération est effectuée par des membres de la communauté, les entreprises peuvent éviter les accusations de partialité descendante dans leurs décisions de modération.

Mais pourquoi devrait-on faire confiance à la foule pour évaluer le contenu de manière raisonnable ? Une étude menée par ma collègue Jennifer Allen nous éclaire sur les cas où les évaluations par la foule peuvent être une bonne solution – et ceux où elles ne le sont pas.

Tout d’abord, la bonne nouvelle. L’un des scénarios que nous avons étudiés consiste à demander à des profanes d’évaluer un contenu spécifique de manière aléatoire, puis à combiner leurs jugements. Nos recherches ont montré que la moyenne des jugements de petites foules de profanes, politiquement équilibrées, correspond à la précision évaluée par les experts, dans la même mesure que les experts se correspondent entre eux.

Cela peut paraître surprenant, car les jugements de tout profane individuel ne sont pas très fiables. Mais plus d’un siècle de recherche sur la « sagesse des foules » a montré comment la combinaison des réponses de nombreux non-experts peut égaler ou dépasser les jugements des experts. Une telle stratégie a été employée, par exemple, par Facebook dans sa revue communautaire, qui a engagé des contractants sans formation spécifique pour vérifier les faits à grande échelle.

Toutefois, les résultats sont plus mitigés lorsque les utilisateurs peuvent vérifier les faits du contenu de leur choix. Au début de l’année 2021, Twitter a lancé un programme de modération basé sur le crowdsourcing appelé Birdwatch, dans lequel les utilisateurs réguliers peuvent signaler les tweets trompeurs et rédiger des vérifications de faits en réponse libre qui « ajoutent du contexte ». D’autres membres de la communauté Birdwatch peuvent noter ces notes à la hausse ou à la baisse, afin de donner leur avis sur leur qualité. Après avoir regroupé les votes, Twitter met en évidence les notes les plus « utiles » et les montre aux autres utilisateurs de Birdwatch et au-delà.

Malgré ces intentions louables, une nouvelle étude de notre équipe a révélé que la partisanerie politique est un facteur important de l’engagement des utilisateurs sur Birdwatch. La grande majorité des utilisateurs signalent et vérifient les tweets écrits par des personnes ayant des opinions politiques opposées. Ils approuvent principalement les vérifications de faits rédigées par leurs co-partisans et qualifient celles de leurs homologues de peu utiles. Cette pratique a rendu les notes moyennes d’utilité de Birdwatchers presque inutiles pour sélectionner de bons vérificateurs de faits, car les notes sont principalement déterminées par ceux qui ont voté plutôt que par le contenu réel de la note.

Mais voici la bonne surprise : bien que nos recherches suggèrent que la politique est une motivation majeure, la plupart des tweets signalés par Birdwatchers étaient effectivement problématiques. Les vérificateurs de faits professionnels ont jugé que 86 % des tweets signalés étaient trompeurs, ce qui suggère que les motivations partisanes qui poussent les gens à participer ne les amènent pas à signaler sans discernement des contenus contre-partisans. Au contraire, ils recherchent surtout les messages trompeurs provenant de l’autre côté de la frontière. Les deux camps se surveillent mutuellement de manière assez efficace.

Ces enquêtes permettent aux plateformes de tirer plusieurs enseignements importants. Tout d’abord, la vérification des faits par la foule peut être une partie potentiellement puissante de la solution aux problèmes de modération sur les médias sociaux si elle est déployée correctement.

Deuxièmement, il est essentiel pour les plateformes qui souhaitent utiliser la modération par le crowdsourcing de canaliser les motivations partisanes pour qu’elles soient productives plutôt que destructrices. La partisanerie semble motiver les gens à se porter volontaires pour les programmes de vérification des faits, ce qui est crucial pour leur succès. Plutôt que de chercher à recruter uniquement les rares personnes impartiales, la clé est d’écarter la petite fraction de fanatiques qui placent la partisanerie au-dessus de la vérité.

Enfin, des stratégies plus sophistiquées sont nécessaires pour identifier les vérifications des faits qui sont utiles. En raison de la partialité des évaluations, il ne suffit pas de faire la moyenne des notes d’utilité. Le développement de telles stratégies est actuellement l’une des priorités de l’équipe de Birdwatch.

Les entreprises aimeraient probablement éviter complètement l’épineuse pratique de la modération du contenu. Cependant, Truth Social, la nouvelle plateforme de médias sociaux « non censurée » de Donald Trump, a montré les dangers de l’esquive. La désinformation et les menaces de terrorisme national ont abondé, ce qui a conduit le magasin Google Play à bloquer l’application. La modération est nécessaire à la survie des plateformes, de peur qu’elles ne soient envahies de rumeurs dangereuses et d’appels à la violence. Mais faire participer les utilisateurs à ce processus de modération peut aider les plateformes à satisfaire les critiques des deux côtés – en identifiant la désinformation à grande échelle, tout en évitant les allégations de partialité descendante. Les plateformes ont donc tout intérêt à investir dans la vérification des faits par la foule.

La lutte contre la désinformation est un défi qui nécessite un large éventail d’approches. Notre travail suggère qu’une voie importante pour les entreprises de médias sociaux pour sauver la démocratie de la désinformation est de démocratiser le processus de modération lui-même.

desinformation

SEO INSIDE est une agence web à Dunkerque (notamment…)

 

--

 

SEO Inside est une agence web et SEO - en savoir plus sur nous:

Agence web / Audit SEO / Conseil SEO / Création de site internet / Refonte de site internet optimisé pour le SEO / Référencement naturel / Référencement local /Netlinking / Formation SEO / E-Réputation et avis

Voici nos implantations :
Lille / Dunkerque / Amiens – ce sont nos 3 bureaux historiques.

Puis voici nos zones géographiques d’intervention :
Paris / Abbeville / Rouen / Compiègne / Reims / Metz / Caen / Evreux / Nancy / Colmar / Rennes / Le Mans / Orléans / Dijon / Besançon / Angers / Nantes / La Rochelle / Poitiers / Limoges /Clermont-Ferrand / Lyon / Annecy / Grenoble / Valence / Bordeaux / Montauban / Toulouse / Biarritz / Montpellier / Marseille / Cannes / Nice / Avignon / Monaco

SEO INSIDE est une agence web spécialiste en référencement naturel qui se veut proche de vous. Contactez-nous pour discuter de vos projets.