Plusieurs utilisateurs de Instagram Ils ont signalé une augmentation soudaine du contenu troublant sur la plate-forme, en particulier des bobines avec des scènes violentes telles que les combats, les accidents, la violence animale, le tout sans censure également pour les utilisateurs qui ont choisi de limiter le contenu qui tombe dans la catégorie NSFW (Pas sûr pour le travail). En ces heures Moitiél’entreprise qui s’occupe du développement du réseau social l’a confirmé en s’excusant pour ce qui s’est passé. Les utilisateurs d’Instagram ont particulièrement signalé une augmentation soudaine du contenu violent et dérangeant dans le flux concernant bobine (Les vidéos de quelques secondes qui semblent « trembler » l’écran), même lorsque le plus haut niveau de protection avait été fixé dans le « Contrôle du contenu sensible » de l’application. Meta a déclaré qu’il s’agissait d’une erreur technique rapidement correcte.
Cet épisode, cependant, vient dans un moment particulier: la société a récemment changé la façon dont le contenu modéré, donnant une plus grande visibilité pour publier précédemment les systèmes automatisés. Ce changement est venu à la suite d’un important « changement de cours » recherché par le PDG de Meta, Mark Zuckerbergqui comprend également une révision des politiques sur le contenu politique et la suppression de certains contrôles sur la désinformation. Le moment de ces changements, qui coïncident avec le retour de Donald Trump Sur la scène politique américaine, cela soulève des questions sur la relation possible entre la «relaxation» des règles de modération et la plus grande propagation du contenu controversé.
Pourquoi l’algorithme Instagram a-t-il suggéré de perturber Kingi? Que se passe-t-il
La visibilité du contenu violent serait due à une erreur dans l’algorithme du réseau social. LE’Algorithme Instagram est basé sur un système de intelligence artificielle qui sélectionne et favorise le contenu en fonction des intérêts et des interactions des utilisateurs. Ce système repose sur un mélange de technologies, y compris le Apprentissage automatique (apprentissage automatique), pour identifier le contenu le plus attrayant et les montrer dans le flux de chaque utilisateur. Malgré l’utilisation d’un algorithme aussi efficace, la gestion du contenu sensible reste complexe: bien que les directives existantes qui interdisent des images explicitement violentes, Meta autorise quelques exceptions, par exemple pour les publications qui dénoncent les violations des droits de l’homme ou des événements de pertinence publique.
Le cas récent du roi violent suggéré aux utilisateurs peut donc avoir été causé par un Erreur dans les filtres de modérationcomme indiqué par Meta, qui par l’intermédiaire d’un porte-parole a publié la déclaration suivante Cnbc:
Nous avons corrigé une erreur qui a fait que certains utilisateurs voient le contenu de bobine Instagram Feeds qui n’aurait pas dû être recommandé. Nous nous excusons pour l’erreur.
Le rôle de l’objectif dans le nouveau scénario politique américain
Certains, cependant, doutent de la vraie raison pour laquelle l’algorithme de la méta a proposé le contenu en question. Selon ces hypothèses, le problème pourrait être plus profond et lié à un Changement structurel dans la façon dont la plate-forme gère la visibilité du contenu.
En janvier, Meta a annoncé une révision de ses politiques, passant d’un contrôle rigide et automatisé sur toutes les violations potentielles à une approche plus sélective, en se concentrant uniquement sur «violations illégales et élevées de gravité, telles que le terrorisme, l’exploitation sexuelle des mineurs, la drogue, la fraude et les escroqueries». Pour les violations considérées comme « moins graves », cependant, la plate-forme conteste la responsabilité de les signaler aux utilisateurs. Traduit en mots pauvres, cela signifie que certains contenus qui, dans le passé, auraient été automatiquement rétrogradés ou cachés peuvent désormais être visibles jusqu’à ce qu’ils soient signalés manuellement par l’utilisateur en service.
Le moment de ces changements n’est pas accidentel. Le changement des règles de modération a eu lieu peu de temps après la décision de Meta de revoir sa politique sur le contenu politique et les informations. Zuckerberg a déclaré qu’il voulait réduire l’intervention de la plate-forme dans la modération des postes politiques et arrêter le programme de vérification des faits tiers Aux États-Unis, le remplaçant par un système similaire à celui adopté par X De Elon Muskappelé « Notes communautaires ». Ce modèle fournit que les utilisateurs eux-mêmes ajoutent des contextualisations au contenu jugé discutable, au lieu d’une intervention directe par la plate-forme.
Ces mouvements ont été interprétés comme une tentative de ré-établir des relations avec Donald Trump et ses partisans, qui dans le passé ont critiqué la destination pour limiter la propagation du contenu conservateur. Zuckerberg a également rencontré le Maison Blanche Pour discuter du rôle de la destination dans la promotion du leadership technologique américain, nourrir les spéculations sur les pressions politiques possibles auxquelles « M. M. Zuck « .
L’avenir incertain de la modération de l’objectif
En résumé, par conséquent, d’une part, les méta déclarées que la suggestion de bobine King distincte est le résultat d’une erreur technique, de l’autre, la nouvelle approche de la modération peut avoir contribué (volontairement ou involontairement) à rendre l’algorithme plus permissif, réduisant la capacité des systèmes à filtrer le contenu controversé avant qu’ils n’atteignent les utilisateurs. Il faut dire que le Couper de plus de 21 000 employés entre 2022 et 2023qui a frappé en particulier les équipes qui traitaient de la lutte contre le contenu et la désinformation dangereux, peuvent avoir encore réduit l’efficacité de la modération. La question qui se pose spontanément à ce stade de notre considération est: quel sera l’avenir de la modération des objectifs?