Des technologies d’intelligence artificielle telles que Chatte et le Ai panoramique de Google (ou Aux ovservews Que voulez-vous révolutionner la façon dont nous accédons aux informations Internet. Si jusqu’à récemment, la plupart d’entre nous comptaient sur le lien bleu classique dans les résultats de recherche pour trouver les réponses à vos questions, nous sommes de plus en plus utilisés pour recevoir des informations directement sous forme de synthèse automatique générée par l’IA, sans avoir à visiter un site. Ce changement a effets profonds non seulement sur l’expérience utilisateur, mais aussi Sur l’économie des médias en ligne qui a fait de leur métier de base « clics »: Le trafic vers des sites d’actualités et de contenu originaux diminue considérablement, sapant des modèles d’économie consolidée pour plusieurs éditeurs. Dans le même temps, cependant, la recherche augmente, devient plus complexe, spécifique et conversationnelle, avec l’algorithme Google que la pêche contenait également par des pages qui étaient auparavant invisibles pour la plupart. Ici, dans un scénario, nouveau et complexe comme celui-ci, les sociétés de rédaction et les startups recherchent de nouvelles solutions pour monétiser et s’adapter à un réseau de plus en plus dominé par les réponses générées par l’IA.
L’impact de l’IA sur les visites et les gains des sites Web
Depuis Mai 2024avec l’introduction de Aux ovservews De Google, l’interaction avec les moteurs de recherche a radicalement changé. Selon l’analyse de l’entreprise BrightEdgele Impression de recherche – c’est-à-dire le nombre de fois où un résultat est montré aux utilisateurs – sont augmenté de 49%. Cela indique que les gens posent plus de questions, sur un éventail de plus en plus vaste de sujets, vraisemblablement invité par la possibilité de recevoir des réponses de plus en plus riches et détaillées directement dans les résultats.
Cependant, une augmentation proportionnelle de la Ctr (Taux de clics), ou le clic sur les liens, est effondré de près de 30% (de mai 2024 à mai 2025). En effet, de nombreux utilisateurs s’arrêtent à la réponse synthétique générée par l’IA et ne ressentent plus le besoin de cliquer sur un lien pour approfondir leur demande en visitant un site Web, avec des effets immédiats et percutants sur le trafic des éditeurs en ligne.

Prenons le New York Times. Selon un rapport rédigé par Similaire (cité par Wall Street Journal) Le Trafic provenant des utilisateurs humains passé depuis 44% (Avril 2022) Al 36,5% (Avril 2025). Une baisse de près de huit points de pourcentage, ce qui représente un problème sérieux pour un acteur aussi important de l’édition en ligne. Selon Google, le scénario ne serait pas aussi catastrophique qu’il y paraît, étant donné que, selon lui, les utilisateurs passent plus de temps sur les pages qu’ils visitent via les liens en profondeur fournis par les OvServiews. Dommage, cependant, qu’en discussion ne soit pas tant le temps de séjour sur un site, mais à quelle fréquence les utilisateurs décident d’approfondir les panoramas générés par l’IA. La fréquence qui, donnée en main, a considérablement baissé.
Pour « tamponner » la situation, Google a rendu public ces derniers jours Offrirun outil disponible gratuitement sur Google AD Managerà travers lequel Les éditeurs peuvent offrir aux lecteurs plusieurs méthodes pour accéder au contenucomme Micropagggeti, les enquêtes, la vision des annonces, les inscriptions de newsletter et plus encore. Google utilise l’intelligence artificielle pour déterminer le meilleur moment pour montrer des projections aux visiteurs, mais les éditeurs ont toujours la possibilité de fixer des seuils personnalisés et, grâce à la collaboration avec Superbeles lecteurs peuvent payer un accès temporaire au contenu (par exemple pendant 24 heures ou une semaine), ou signer un abonnement. De nombreux modèles proposés, tels que les micropagments, n’ont pas réussi dans le passé en raison de problèmes économiques et d’utilisation, mais Google espère que l’intégration native avec le gestionnaire de publicité rend l’expérience plus fluide et durable. Bien que l’entreprise n’ait pas partagé des détails complets sur les résultats des tests, il a rapporté que pendant une période d’expérimentation qui a duré plus d’un an avec 1 000 éditeursles revenus moyens ont augmenté de 9%. Mais si Offre Wall, ce sera une solution concrète au problème du problème « Mangia-Trafficici », il est encore tôt pour le dire.
L’impact de l’IA sur les habitudes de recherche
Une chose est certaine: L’IA a profondément eu un impact sur les habitudes de recherche des utilisateurs Et, en particulier, sur le type de questions qu’ils posent eux-mêmes aux moteurs de recherche. La requête – ou les mots que nous tapons dans la barre de recherche – sont devenus plus longs et plus articulés. Ceux avec plus de huit mots ont augmenté de 7%et plus souvent et plus souvent un aperçu du. Où nous avons simplement écrit « Efficacité des panneaux solaires« , Aujourd’hui nous demandons »Comment optimiser l’efficacité des panneaux solaires dans les climats nuageux« , Recevoir une réponse complète et contextualisée, sans avoir à » sauter « d’un lien à un autre. Pour l’utilisateur, cela peut être un avantage relatif (et maintenant nous expliquerons pourquoi nous parlons de l’avantage relatif), mais pour les éditeurs, c’est certainement une perte de trafic et de revenus publicitaires. de la conversationreflète les attentes créées par des outils tels que les OvServiews et les Chatgpts, qui répondent avec des phrases articulées et avec un ton naturel et arrangeant. Si, d’une part, cela facilite la recherche pour l’utilisateur, il doit être considéré comme le fait que les résumés générés par l’IA peuvent contenir des erreurs. Et si l’utilisateur n’approfondit pas le « Pappa prêt » fourni par l’intelligence artificielle, il ne le remarque peut-être pas du tout.
La langue utilisée dans la recherche en ligne change également: de plus en plus d’utilisateurs utilisent Conditions techniques et spécialiséesun signe qui est attendu de réponses détaillées et avancées. Le volume de requêtes contenant un vocabulaire sectoriel – par exemple dans des domaines tels que la finance, la santé et la technologie – a grandi 48,3% par rapport à l’année précédente. C’est un signe clair que le public a fait confiance aux explications complexes, qui étaient autrefois reléguées à des forums de niche ou à des publications spécialisées.
L’IA réécrit le marché de l’édition en ligne
Un autre effet secondaire de l’IA sur la publication en ligne concerne transformation de la façon dont Google sélectionne les sources d’informations. Dans le passé, les dix premières positions dans les résultats organiques ont monopolisé l’attention et le trafic. Maintenant, cependant, les OvServiews citent plus souvent du contenu à partir de pages qui se trouvent bien au-delà de la première page. Après un Mise à jour de l’algorithme en mars 2025le Citations des résultats positionnés entre le 21 et 30 ° Le lieu a augmenté 400%et ceux entre le 31e et 100 ° lieu du 200%. Cela signifie que le contenu encore moins visible peut gagner de l’espace grâce à l’IA, s’il est considéré comme pertinent.
Cette dynamique, si nous y réfléchissons, a des effets paradoxaux. D’une part, l’accès aux sources d’information est démocratisée: non seulement les géants de l’éditorial, mais aussi de petits sites bien documentés peuvent être mentionnés. De l’autre, cependant, si les utilisateurs ne cliquent plus sur les liens, la valeur économique de la visibilité diminue. Pour cette raison, de nombreux journaux tentent de conclure des accords avec les sociétés d’IA pour protéger leur contenu. Le New York TimesPar exemple, il a autorisé ses articles à Amazon pour avoir formé ses plateformes d’IA. D’autres éditeurs importants, comme L’Atlantique Et Le Washington Postils ont décidé de collaborer avec Openai, tandis que Perplexité Il propose un modèle qui fournit le partage des revenus publicitaires avec des éditeurs dont le contenu est utilisé par le chatbot.
Les éditeurs de l’UE rapportent Google
Compte tenu de l’impact que sur la survision (et, plus généralement, l’intelligence artificielle) est possédée du marché du contenu en ligne, Un groupe d’éditeurs indépendants a dénoncé Google à la Commission européennel’accusant d’avoir abusé de sa position dominante dans la recherche en ligne. La plainte concerne précisément le résumé généré par l’IA que Google affiche en haut des résultats de la recherche. Selon les partisans de la plainte, ces contenus utilisent le matériel des éditeurs sans possibilité de renonciation, pénalisation du contenu original. Les signataires, y compris leAlliance des éditeurs indépendants, Foxglove Legal Community Intérêt Company et le Mouvement pour un Web ouvertdemandez une mesure provisoire de laAntitrust pour éviter Dommages irréparables à la concurrence et garantissant l’accès aux nouvelles indépendantes. Google s’est défendu des accusations en disant que les sites reçoivent toujours des milliards de clics et que les nouvelles fonctionnalités de l’expansion des opportunités de découverte. Une plainte similaire a également été envoyée à l’autorité britannique pour la concurrence, et des affaires similaires ont également émergé aux États-Unis.
Les priorités de l’IA: le commentaire de Salvatore Aranzulla
À partir de cet examen, il est donc clair à quel point la situation d’édition en ligne a été compliquée. Nous avons profité de ce thème pour demander Salvatore aranzullaL’un des disséminations informatiques les plus connues en Italie, ce qu’il pense de toute cette question. Voici son commentaire:
Ces systèmes fournissent la réponse à l’utilisateur et le récupément à partir de sites Web éditoriaux, tels que Geopop, tels que aranzulla.it, qui sont maintenant mentionnés (dans les résumés basés sur l’IA). De toute évidence, fournir (directement) une réponse à l’utilisateur n’arrive plus dans le site et, par conséquent, les sites qui vivent dans la publicité finissent par perdre du trafic, ils finissent par perdre des revenus. Le vrai point est de comprendre la durabilité à long terme. Dans le sens où, si sur un site, plus de trafic n’arrive et ne gagne pas par la publicité (nous, éditeurs), nous avons moins d’incitations à produire de la qualité et du contenu mis à jour. Si les éditeurs dont ces intelligences artificielles tirent des informations ne produisent plus d’informations de qualité, les informations qui (l’IA) reviendront à l’utilisateur seront incomplètes et partielles.
Je le vois mal, dans le sens où toutes ces intelligences artificielles se concentrent actuellement sur la partie de l’utilisateur qui ignore toutes ces autres personnes – les éditeurs – qui publient des informations. Le risque est que (IA) finisse par perdre la qualité et ne peut donc pas satisfaire les besoins de l’utilisateur à long terme.
Le raisonnement d’Aranzulla est clair: si les éditeurs, dans un avenir pas trop lointain, devraient décider de ne pas publier plus de contenu (car sans les revenus publicitaires, ce ne serait plus économiquement durable), comment les différents systèmes en service seront-ils de fournir des résumés de qualité à ceux qui rechercheront des informations en ligne? Il est clair que quelque chose doit être modifié pour empêcher les ruptures de « jouet ».