Quels sont les enjeux (réels) de l’arrestation de Pavel Durov
Il n’est pas courant que le PDG d’une grande entreprise technologique soit arrêté. Et c’est pour cela qu’on parle beaucoup de Pavel Durov, le numéro un de Telegram, arrêté en France le 24 août dernier. Dans les premières heures, de nombreuses hypothèses ont été émises sur les raisons de l’arrestation. Sur X, le hashtag #FreePavel s’est répandu, en soutien à ce que beaucoup considèrent aujourd’hui comme un martyr de la liberté d’expression. Suite aux éclaircissements partiels apportés par les autorités françaises, nous pouvons tenter de remettre un peu d’ordre dans une affaire qui concerne davantage ce que nous attendons – en tant que personnes et société – des plateformes web que la liberté d’expression.
Pourquoi Pavel Durov a été arrêté
Laure Beccuau, la procureure de Paris, a indiqué dans un communiqué que cette arrestation s’inscrivait dans le cadre d’une enquête ouverte le 8 juillet « contre des inconnus » pour une série d’accusations possibles, parmi lesquelles complicité de diffusion de pédopornographie, trafic de drogue, blanchiment d’argent et refus de coopérer avec les forces de l’ordre.
L’enquête est menée par des spécialistes de la cybercriminalité et de la fraude et Durov aurait été arrêté pour être interrogé par les enquêteurs. Dans un communiqué publié dans les heures qui ont suivi l’arrestation, Telegram avait fait savoir « qu’il respectait les lois de l’UE, y compris la loi sur les services numériques ». Et que « la modération des contenus sur la plateforme est conforme aux standards de l’industrie ».
Il semble cependant que l’Union européenne n’ait pas grand-chose à voir avec l’arrestation de Pavel Durov. Ce qui semble avoir été réalisé en vertu des lois françaises. Bref, la question est un peu plus complexe et ne concerne pas strictement la liberté d’expression.
Telegram est différent des autres plateformes
Commençons par le début. Telegram est essentiellement une application de messagerie instantanée, comme Whatsapp. Il présente cependant quelques particularités. Sa popularité (elle compte environ 900 millions d’utilisateurs dans le monde) est en partie due à la décision d’autoriser la création de grands groupes de discussion, jusqu’à 200 000 personnes, à une époque où d’autres plateformes, comme WhatsApp, réduisaient la taille des groupes pour contrer désinformation. D’autres fonctionnalités, telles que le partage de fichiers volumineux, l’absence de limites sur le partage de liens et l’utilisation de robots capables d’interagir avec les utilisateurs au sein des canaux, ont contribué à en faire un outil puissant pour la communication transfrontalière de groupes de personnes plus ou moins importants. Sur différents sujets, de la guerre en Ukraine ou en Palestine, aux reportages sur les réductions sur Amazon.
Ces capacités, combinées à la modération minimale de l’application, en ont fait un refuge assez sûr pour la diffusion non consensuelle de matériel intime, de pédopornographie et de trafic de drogue. Le tout dans un environnement qui n’est qu’apparemment sûr : bien qu’elle soit considérée comme une plateforme privée, le cryptage de bout en bout (c’est-à-dire la technologie qui rend les discussions visibles uniquement à ceux qui envoient et à ceux qui reçoivent le message) n’est pas défini par défaut, contrairement à de ce qui se passe sur les plateformes Meta. Vous devez l’activer en sélectionnant l’option de discussions secrètes.
Le vrai problème avec Telegram
Le point, cependant, est la modération. Telegram, contrairement à ce qu’il prétend, ne se rapproche même pas des normes de contrôle de contenu exigées des grandes entreprises technologiques. Sur Platformer, le journaliste Casey Newton souligne comment, malgré l’interdiction de publier des contenus illégaux ou d’encourager la violence, la plateforme, dans sa FAQ, souligne son indisponibilité pour éliminer les contenus illégaux – même après les signalements des utilisateurs – des groupes, chats et chaînes privées.
Et voici la perception de la sécurité : ce n’est pas tant le cryptage, mais plutôt le fait qu’en aucun cas les contenus ne sont partagés avec la police. Toujours dans la FAQ, on lit : « Pour protéger les données qui ne sont pas couvertes par un chiffrement de bout en bout, Telegram utilise une infrastructure distribuée. Les données du cloud de chat sont distribuées dans plusieurs centres de données à travers le monde, contrôlés par différentes entités juridiques, elles-mêmes réparties sous différentes juridictions. Les clés de décryptage associées sont divisées en parties et ne sont jamais conservées avec les données qu’elles protègent. Par conséquent, pour nous obliger à transmettre des données, il faut plusieurs ordonnances de tribunaux dans plusieurs juridictions.
Bref, aucune modération et réticence à collaborer avec la police. Au-delà de l’arrestation de Durov (dont certains aspects restent à éclaircir), c’est là l’objet de cette histoire. Dans un article publié en 2022, le journal américain The Verge abordait très efficacement le sujet de la modération des contenus sur les réseaux sociaux, à commencer par le rachat de Twitter (devenu X) par un autre champion de la liberté d’opinion comme Elon Musk.
« La vérité essentielle de chaque réseau social – lit-on dans l’article – est que le véritable « produit » est la modération du contenu, et tout le monde déteste celui qui décide du fonctionnement de cette modération. La modération du contenu est ce que produit Twitter : c’est ce qui définit l’expérience utilisateur. C’est la même chose pour YouTube, Instagram et TikTok. Tout le monde essaie d’encourager les contenus positifs, de décourager les contenus négatifs et de supprimer les contenus véritablement inacceptables. »
Enfin, pas tous, apparemment. Pas Telegram, du moins. Pouvons-nous encore l’accepter ?