Nouvelles importantes à la maison Moitié: hier Mark ZuckerbergPDG du géant de la technologie propriétaire de Facebook, Instagram, Threads et WhatsApp, a annoncé un effectué dans ses politiques de modération de contenu. Après huit ans, le programme tiers de vérification des faitsintroduit en 2016 pour lutter contre la désinformation, viendra remplacé par un nouveau système basé sur les « Community Notes ». Ce modèle, similaire à celui déjà utilisé par Elon Musk sur X (anciennement Twitter), laisse aux utilisateurs la responsabilité d’ajouter du contexte et de corriger toute erreur dans les informations partagées. Il n’est donc pas surprenant que Musk ait commenté l’actualité sur sa plateforme avec «C’est génial» (« C’est fantastique »).
La décision, qui prendra effet dans un premier temps aux États-Unis (il n’y a pas de projet immédiat pour l’Union européenne et le Royaume-Uni), a soulevé débats houleux. D’un côté, Meta soutient que le changement favorise la liberté d’expression et réduit les préjugés politiques ; d’un autre côté, les experts craignent que cela puisse accroître la diffusion de faux contenus et réduire l’efficacité de la lutte contre la désinformation et les fausses nouvelles. Tout cela se déroule dans un contexte « d’approche » entre Mark Zuckerberg Et Donald Trumpavec des implications importantes non seulement pour la politique intérieure américaine mais aussi pour le rôle des réseaux sociaux en tant qu’outil d’information mondial.
Le programme tiers de vérification des faits de Meta : qu’est-ce que c’était et comment il fonctionnait
Le système de vérification des faits de Meta était un programme qui fournissait collaboration avec des vérificateurs de faits indépendants certifié parIFCN (Réseau international de vérification des faits) et qui avait pour objet déclaré de lutter contre la désinformation et proposer des informations fiables. Depuis 2016, le programme de vérification des faits a impliqué plus de 90 organisations qui se sont concentrées sur la lutte contre les canulars viraux. Le processus de vérification des faits s’est déroulé en trois phases :
- Identification: les vérificateurs de faits ont identifié les informations erronées par eux-mêmes ou grâce à des signaux fournis par Meta, tels que les commentaires des utilisateurs, la détection de similarités et la surveillance de la propagation rapide du contenu.
- Révision: les vérificateurs des faits ont vérifié l’exactitude des informations grâce à des enquêtes originales, des sources primaires et des analyses des médias.
- Action: si un élément de contenu est jugé faux, Meta réduit sa visibilité, avertit les utilisateurs qui l’ont partagé ou souhaitent le faire et applique une étiquette avec le rapport du vérificateur de faits. L’IA étend également ces actions aux doublons.
Meta fact-checking : pourquoi il a été activé et pourquoi il sera retiré
Le programme de vérification des faits a été développé par Meta au milieu de controverses suite à l’élection présidentielle américaine de 2016remporté par Donald Trump. L’entreprise avait été accusée d’encourager la diffusion de fausses nouvelles, c’est-à-dire de fausses nouvelles destinées à influencer l’opinion publique. Le système, basé sur la collaboration avec des organisations journalistiques indépendantes (qui vérifient la véracité des contenus, les classent et, dans les cas les plus graves, limitent leur visibilité), aurait dû représenter une solution à ce problème. Au fil des années, cependant, cette stratégie a rencontré critiques pour partialité politique présumée et un perception d’une censure excessive par la communauté.
Mark Zuckerberg lui-même, en communiquant l’abandon de cette approche, a souligné comment le système actuel avait atteint « un point critique », caractérisé par trop d’erreurs et un niveau de modération perçu comme excessif. Sa vision est celle d’un retour aux origines des réseaux sociaux, conçus comme des plateformes ouvertes où la liberté d’expression est une priorité. Ce changement, selon Meta, vise à réduire la censure des contenus légitimes et à simplifier les politiques de modération, en confiant aux utilisateurs un rôle central dans la régulation du débat public.
Le nouveau système, défini par M. Zuck « Notes de la communauté »travaille en collaboration. Les utilisateurs peuvent signaler un contenu trompeur et proposer des corrections ou ajouter du contexte. Cependant, ce modèle présente quelques problèmes critiques. Sur X, où il est déjà utilisé, Community Notes a montré des limites évidentes dans la vérification des fausses informations, en particulier dans les cas où la vérification nécessite des compétences spécialisées ou une connaissance approfondie des faits. Confier la modération à la communauté risque donc amplifier les préjugés du groupeavec le potentiel de transformer la plateforme en une arène de conflit plutôt qu’en un espace de discussion constructive.
Et si vous vous demandez pourquoi Meta a décidé d’agir maintenant, vous devez tenir compte du fait que l’annonce arrive à un moment stratégique, qui voit leLe rapprochement de Zuckerberg avec Trump et le Parti républicain. Après des années de tensions culminant avec la suspension des comptes Facebook et Instagram de Trump suite à l’assaut du Capitole le 6 janvier 2021, Meta a « réadmis » Trump sur Facebook et Instagram en 2023 tout en maintenant certaines restrictions, qui ont été complètement supprimées en juillet 2024. Ces derniers mois, Zuckerberg a entrepris une série d’initiatives qui marquent son repositionnement politique. Parmi ceux-ci, un dîner à Mar-a-Lago avec Trump et le don d’un million de dollars pour son investiture à la Maison Blanche. Par ailleurs, Joel Kaplan, un représentant proche des Républicains, a été nommé responsable des politiques mondiales du groupe.
Ce tournant, décrit par New York Times comme « un signe clair de la façon dont l’entreprise se repositionne pour l’ère Trump», reflète une refonte des priorités stratégiques de Meta.
Ce qui change pour les utilisateurs : avantages et inconvénients de l’arrêt du fact-checking
Pour nous, utilisateurs, ces changements pourraient se traduire par un une plus grande marge de manœuvre dans la publication de contenus et la réduction de la censure (deux « pour » définitivement positifs), mais aussi dans une plus grande responsabilité dans l’évaluation de ce que nous lisons et partageons : comme dirait quelqu’un, «un grand pouvoir implique de grandes responsabilités». L’abandon du programme de vérification des faits par des tiers, en fait, pourrait accroître la désinformationavec la prolifération d’informations fausses ou pour le moins trompeuses, dues à manque potentiel d’efficacité du nouveau système qui s’appuie sur le bon sens de la communauté pour vérifier les faits. L’ère des fact-checkers professionnels sur Facebook, Instagram et Threads semble donc vouée à sa fin (Meta introduira la nouveauté aux Etats-Unis d’ici deux mois).
La question est désormais de savoir si cette évolution sera capable de préserver l’équilibre entre liberté et information véridique et de qualité dans un monde numérique de plus en plus complexe. A cet égard, la réflexion du président de la est intéressante Commission fédérale du commerce, Lina Khanqui commentant l’annonce de Meta a déclaré :
Nous devrions avoir une économie dans laquelle les décisions d’une seule entreprise ou d’un seul dirigeant n’ont pas d’impact extraordinaire sur la liberté d’expression en ligne.