Quel est le problème avec l’algorithme Threads
D’abord la gêne, ce moment où on ne sait plus trop quoi publier, pour quel public, dans quelle langue. Puis l’engouement pour un nouvel espace numérique, peut-être enfin protégé de la dynamique des autres réseaux sociaux. Finalement, déception, désillusion, due à une série de dynamiques qui ne cessent de se répéter.
C’est un peu un cycle, une répétition continue de la même expérience, qui a uni les utilisateurs de toute nouvelle plateforme sociale ces dernières années. C’est également arrivé avec Threads, le nouvel ajout à Meta. Lancé en juillet pour contrer les réseaux sociaux estampillés Elon Musk.
La lune de miel, à vrai dire, n’a pas duré longtemps. Threads a également commencé à proposer du contenu polarisant et de mauvaise qualité assez tôt. Comme la plupart des plateformes sociales aujourd’hui, le nouvel ajout de Meta dispose d’une page d’accueil où apparaît le contenu « Pour vous ». C’est-à-dire, pour faire simple, des posts publiés à la fois par les profils que l’utilisateur a choisi de suivre et par d’autres qui n’appartiennent pas à son réseau. Ces derniers sont sélectionnés, d’une part, sur la base d’intérêts ; d’autre part, en fonction du succès que ce contenu a obtenu sur la plateforme.
Eh bien, la qualité de ces recommandations s’est détériorée assez rapidement. Lequel proposait souvent des posts peu profonds voire éloignés des intérêts des utilisateurs. À tel point que le numéro un d’Instagram (auquel Threads est lié) Adam Mosseri a dû intervenir pour les rassurer sur le fait qu’ils y travaillent, qu’ils vont bientôt s’améliorer.
5 questions (et réponses) après une semaine sur Threads, le nouveau réseau social de Meta
Publié par @mosseriAfficher sur les discussions
« Nous voulons que les gens aient une expérience positive sur Threads », a déclaré Mosseri, « et ces dernières semaines, nous avons rencontré des problèmes avec des recommandations de mauvaise qualité. Il s’agit de contenus qui ne violent pas entièrement nos directives communautaires, mais qui sont souvent en leurs limites. Nous travaillons à améliorer la qualité des suggestions. »
Comment améliorer l’algorithme Threads
Le problème est le suivant : sommes-nous sûrs de pouvoir améliorer un système d’intelligence artificielle conçu pour prédire avec quelles publications nous allons interagir ?
Quand on parle d’algorithme, en fait, on parle d’une IA programmée pour deviner, de manière assez autonome, quelles sont les meilleures positions pour atteindre cet objectif. Un système qui fonctionne à partir d’interactions, de likes, de réponses, de partages : chacune de ces actions est un signal positif pour l’algorithme. Ceci, surtout sur une plateforme encore balbutiante comme Threads, a deux conséquences.
- Au début, même si certaines données ont été importées depuis Instagram, le système ne connaît pas les utilisateurs. Il ne les a pas encore identifiés, classés en classes d’intérêt précises. Et donc il est très sensible à toute interaction. Par exemple, si un profil répond à quelqu’un, ne serait-ce que pour contester ses idées, le système continuera à afficher des publications de ce type sur ce profil. Et pour encourager ce qu’on appelle l’effondrement du contexte, c’est-à-dire ce moment où un message quitte le cadre de sens dans lequel il a été conçu, pour se retrouver avec des publics et des utilisateurs qui peuvent le percevoir avec des sensibilités différentes.
- Au début, sur un réseau social, beaucoup de gens voient un espace blanc, un horizon où ils peuvent se construire une audience, une réputation, peut-être une carrière. Et dans ce contexte, nombreux sont les profils qui – légitimement – considèrent les Threads comme une opportunité d’émerger et visent un engagement même légèrement artificiel, en exploitant l’algorithme. Et donc en écrivant des contenus volontairement provocateurs, en anticipant et en espérant un nombre de réactions très élevé. Outre les interventions techniques promises par Mosseri, les utilisateurs d’aujourd’hui doivent simplement prêter plus d’attention à la façon dont ils utilisent Threads. Et donc, d’une part, de ne pas répondre aux messages manifestement provocateurs, ni de faire taire ou bloquer les profils qui publient des contenus qu’ils trouvent offensants.
Il n’est pas facile pour un réseau social textuel de reproduire le modèle TikTok, dans lequel les vidéos continuent de défiler les unes après les autres, apparemment choisies par un système qui nous connaît comme personne. Ce qui fait la différence, c’est la conception : le contenu en plein écran oblige les utilisateurs à donner des instructions claires à l’algorithme de quelque manière que ce soit, depuis la durée de visionnage jusqu’à l’augmentation du volume. Cela fournit des indices qui facilitent grandement la personnalisation.
Chiara Ferragni, Threads et la recherche de l’authenticité (qui n’existe pas sur les réseaux sociaux)
Et si le problème venait de l’alimentation ?
Les problèmes de Threads ont poussé certains analystes à aller un peu plus loin sur le sujet des suggestions algorithmiques : et si les médias sociaux basés sur les flux étaient le problème ? C’est-à-dire ce modèle inauguré par Facebook dans lequel la page d’accueil est une collection de publications d’autres utilisateurs, sélectionnées par un algorithme parmi les profils que l’utilisateur suit en fonction de ses intérêts.
Le journaliste Robinson Meyer, sur Threads, a écrit que le problème pourrait être précisément que ces plateformes « incitent les gens à s’identifier trop fortement à leurs propres croyances et donc à s’accrocher à de fausses croyances, même face à de nouvelles preuves ».
Publié par @yayitsrobAfficher sur les discussions
Le fondateur de Vox, aujourd’hui au New York Times, a répondu au stimulus, Ezra Klein, qui a expliqué comment les plateformes nous obligent à réduire la complexité de chaque pensée, à la transformer en format. Et, de par leur conception et leur potentiel de diffusion, bien au-delà de notre cercle social, ce sont ces pensées qui nous représentent, ce sont ces simplifications auxquelles nous nous accrochons, que nous défendons, qui finissent par nous définir.