En 2026, les éditeurs font face à une douloureuse question stratégique : quel est le coût SEO du refus de l’IA ? Pour de nombreuses marques de presse et de magazines, le dilemme n’est plus théorique. S’ils essaient de bloquer l’utilisation de leur contenu par l’IA, ils risquent de perdre en visibilité dans Google Search. S’ils restent dans le système, ils risquent de devenir une matière première pour des résumés IA qui satisfont les utilisateurs sans renvoyer un trafic significatif en retour. Ce compromis est devenu l’une des tensions majeures de l’édition numérique.
Le problème est particulièrement aigu parce qu’il n’existe toujours pas de mécanisme propre et largement adopté permettant aux éditeurs de refuser l’usage de l’IA tout en conservant une visibilité normale dans la recherche. Les éditeurs européens, les organisations professionnelles et les régulateurs se sont de plus en plus concentrés sur ce choix groupé, en affirmant que le système actuel oblige les éditeurs à accepter la réutilisation par l’IA ou à subir des conséquences en SEO. Le résultat est un marché dans lequel le coût du refus de l’IA est réel, mais où le coût de son acceptation peut être tout aussi dommageable.
Un choix groupé que les éditeurs n’ont jamais voulu
La frustration des éditeurs s’est accrue parce que les produits IA de Google et la visibilité traditionnelle dans la recherche restent étroitement liés. Selon des reportages de Digiday, Digital Content Next et PPC Land, les éditeurs et les organisations professionnelles estiment que la configuration de Google les oblige de fait à choisir entre autoriser l’utilisation de leur contenu par l’IA générative et conserver leur visibilité dans les résultats de recherche. En pratique, il n’existe pas de désactivation simple des seuls AI Overviews qui laisserait le reste de l’indexation intact.
C’est pourquoi le coût SEO du refus de l’IA est devenu un enjeu aussi central pour l’industrie. Si les AI Overviews apparaissent dans une large part des expériences de recherche, s’éloigner de cet écosystème peut commencer à ressembler à un retrait de la recherche elle-même. Digiday citait des données de seoClarity montrant qu’en mai 2025, les AI Overviews apparaissaient en tête des résultats de recherche sur ordinateur aux États-Unis dans 98 % des cas. Même si ce chiffre varie selon les jeux de données, il illustre pourquoi les éditeurs voient la frontière entre participation à l’IA et visibilité dans la recherche devenir dangereusement mince.
Les régulateurs ont désormais commencé à reconnaître précisément le problème décrit par les éditeurs. La Commission européenne a ouvert une enquête en décembre 2025 pour déterminer si Google utilisait le contenu des éditeurs à des fins d’IA sans compensation appropriée ni possibilité réelle de refus. Puis, le 28 janvier 2026, la Competition and Markets Authority du Royaume-Uni a proposé que Google offre aux éditeurs un moyen de se retirer des AI Overviews sans perdre leur visibilité dans la recherche. Cette proposition est importante, car elle reconnaît que le choix actuel n’est pas un simple paramètre produit neutre, mais un problème structurel de marché.
Les données de trafic à l’origine de l’inquiétude
Les craintes des éditeurs reposent sur des chiffres de trafic concrets, et non sur une simple intuition. Digiday a rapporté que les AI Overviews de Google étaient liées à une baisse de 25 % du trafic de recommandation vers les éditeurs en 2025. Ce constat a contribué à cristalliser ce que de nombreuses équipes éditoriales et d’audience observaient déjà dans leurs tableaux de bord internes : les réponses générées par l’IA peuvent remplacer des visites qui, auparavant, auraient été dirigées vers les sites des éditeurs.
Des données de marché plus larges vont dans le même sens. Search Engine Land a rapporté que des données Chartbeat citées en janvier 2026 montraient une baisse de 33 % du trafic organique provenant de la recherche Google au niveau mondial et de 38 % aux États-Unis entre novembre 2024 et novembre 2025. Digiday, citant Similarweb, a également noté que le trafic organique de recommandation issu de la recherche aux États-Unis vers les éditeurs est passé de plus de 2,3 milliards de visites en juillet 2024 à 1,8 milliard en juin 2025. Il ne s’agit pas de fluctuations isolées. Cela suggère une détérioration significative de l’environnement du trafic de recherche entourant le déploiement de l’IA.
Les éditeurs eux-mêmes identifient de plus en plus les perturbations de trafic liées à l’IA comme l’un des principaux défis de leur activité. Dans l’enquête éditeurs de Digiday du quatrième trimestre 2025, 25 % ont déclaré que les changements dans les schémas de trafic constituaient le plus grand défi du secteur, tandis que 16 % ont indiqué que les baisses de trafic liées à l’IA étaient le principal défi. Lorsqu’un problème atteint ce niveau dans les enquêtes sectorielles, il cesse d’être un simple enjeu de canal pour devenir un sujet de direction générale.
Pourquoi les résumés IA accélèrent la recherche zero-click
L’analyse du panel de navigation du Pew Research Center de mars 2025 aide à comprendre pourquoi les éditeurs considèrent les AI Overviews comme une menace directe pour le trafic de recommandation. Les utilisateurs de Google n’ont cliqué sur les liens traditionnels des résultats de recherche que dans 8 % des cas lorsqu’un résumé IA apparaissait, contre 15 % lorsqu’aucun résumé IA n’apparaissait. En d’autres termes, les utilisateurs étaient presque deux fois moins susceptibles de cliquer vers le web ouvert lorsqu’une réponse IA était présente.
Tout aussi important, les liens intégrés au résumé IA lui-même ne remplaçaient pas de manière significative les visites perdues. Pew a constaté que les clics sur les liens à l’intérieur du résumé IA ne représentaient que 1 % des visites. C’est important, car Google et d’autres plateformes présentent souvent les citations IA comme une source d’opportunités de trafic. Les preuves suggèrent que la couche de citation ne compense actuellement pas, pour les éditeurs, les pertes de clics causées par le résumé lui-même.
Pew a également constaté que les utilisateurs étaient plus susceptibles de mettre fin à leur session de navigation après une page de recherche contenant un résumé IA : 26 % l’ont fait, contre 16 % sur les pages qui n’en comportaient pas. Ce comportement appuie fortement les préoccupations des éditeurs au sujet des résultats zero-click. Si le résumé satisfait l’intention directement sur la page de résultats, le travail éditorial de l’éditeur crée toujours de la valeur, mais le site perd la visite, l’impression publicitaire, l’opportunité d’abonnement et la relation avec le lecteur.
Le problème est déjà généralisé, pas marginal
Certains changements de plateforme commencent à la marge. Les AI Overviews n’ont pas suivi ce schéma. Pew a constaté qu’environ 18 % de toutes les recherches Google dans son jeu de données de mars 2025 produisaient un résumé IA. L’étude a également montré que 58 % des adultes américains de l’échantillon suivi avaient effectué au moins une recherche Google ce mois-là ayant généré un résumé IA. Cela signifie que l’exposition des éditeurs à une recherche médiée par l’IA était déjà généralisée bien avant 2026.
Digiday a signalé une accélération similaire. Plus de 13 % de toutes les requêtes de recherche déclenchaient des AI Overviews en mars 2025, contre 6,49 % en janvier 2025. Cette augmentation rapide sur une courte période explique en partie pourquoi les éditeurs estiment disposer de peu de temps pour s’adapter. Une fonctionnalité n’a pas besoin d’apparaître sur chaque requête pour remodeler la stratégie éditoriale ; il suffit qu’elle se répande sur un nombre suffisant de requêtes commercialement importantes pour modifier les schémas de trafic et les prévisions.
La question de la prévalence accentue aussi le dilemme du retrait. Si les résumés IA touchent une part importante et croissante des comportements de recherche, alors le retrait des systèmes d’IA peut ne plus ressembler à une décision ciblée en matière de droits sur le contenu. Cela peut au contraire fonctionner comme un abandon de visibilité dans des catégories qui restent cruciales pour l’acquisition d’audience, en particulier les contenus evergreen de service, de lifestyle et explicatifs.
Les meilleurs classements ne garantissent plus des clics significatifs
L’un des aspects les plus déstabilisants du basculement vers l’IA est que même de solides performances en SEO peuvent ne plus générer les taux de clics historiques. Digital Content Next, citant une analyse d’Ahrefs sur 300 000 mots-clés, a indiqué que les AI Overviews sont corrélés à un CTR moyen inférieur de 34,5 % pour la page classée en première position. Cette statistique est importante, car les premières positions constituaient traditionnellement la récompense d’un investissement soutenu en SEO. Si l’IA comprime cette valeur, l’économie de l’optimisation pour les moteurs de recherche change.
Les éditeurs rapportent des résultats encore plus sévères sur leurs propres propriétés. Digiday a cité Carly Steven, directrice SEO et éditorial e-commerce du Daily Mail, déclarant : « Le taux de clic moyen est inférieur de 80 à 90 % lorsqu’un AI Overview est déclenché. » Digiday a également résumé l’expérience de l’entreprise en indiquant que le taux de clic est inférieur de 80,90 % lorsqu’un AI Overview est déclenché et que l’éditeur est classé en première page. Ces chiffres sont frappants, mais ils s’alignent sur la tendance plus large des réponses IA à réduire les clics en aval.
Plusieurs éditeurs lifestyle ont également déclaré à Digiday avoir vu leur trafic de recommandation provenant de Google Search chuter de 30 % à 50 % depuis le déploiement des AI Overviews en mai 2024. Les éditeurs fortement axés sur les contenus de service sont particulièrement vulnérables, car les résumés IA peuvent répondre directement à des questions evergreen. Les recettes, explications santé, conseils d’achat, astuces de voyage et contenus pratiques deviennent tous plus faciles à condenser par les moteurs de réponse dans une expérience de page de résultats qui élimine la nécessité de visiter un site.
Les données éditeur par éditeur montrent l’ampleur des pertes zero-click
Des exemples détaillés rendent la tendance sectorielle plus difficile à écarter. Selon Digiday et des données Similarweb, 75 % des 100 principaux mots-clés de CBS News qui déclenchaient des AI Overviews n’ont produit aucun clic en mai 2025, contre 54 % pour l’ensemble de ses principaux termes de recherche. Cet écart suggère que les requêtes déclenchant l’IA sont particulièrement susceptibles de supprimer des visites, même pour de grandes marques jouissant d’une autorité établie.
D’autres éditeurs montrent des tendances similaires. Yahoo News affichait un taux de zero-click supérieur de 20 points de pourcentage sur les mots-clés avec AI Overview, tandis que Substack montrait un écart de 17 points. Digiday a également rapporté que People avait un taux de zero-click de 71,2 % sur les mots-clés avec AI Overview, tandis que MSN et Google News se situaient autour de 69 %. Ces exemples varient selon l’éditeur et le sujet, mais ils pointent tous dans la même direction : les couches de réponse générées par l’IA intensifient le comportement zero-click.
Digital Content Next a ajouté un autre signal important, indiquant que les recommandations issues de Google Search au niveau médian avaient baissé presque chaque semaine sur une période de huit semaines en mai et juin 2025, les pertes dépassant les gains dans un rapport de deux à un. Ce type de faiblesse durable laisse penser qu’il ne s’agit pas simplement d’une période de volatilité des classements. Cela ressemble davantage à une réinitialisation structurelle de la manière dont la valeur est répartie entre les plateformes de recherche et les producteurs de contenu.
Pourquoi la visibilité dans l’IA n’est pas synonyme de valeur d’audience
Certains optimistes soutiennent qu’apparaître dans les systèmes d’IA créera une nouvelle distribution. Il y a une part de vérité dans cette idée, mais l’ampleur reste limitée et l’économie demeure floue. Digiday a rapporté que les recommandations générées par l’IA augmentent, mais qu’elles restent trop faibles pour compenser les pertes provenant de la recherche traditionnelle. Pour la plupart des éditeurs, le trafic gagné via les chatbots IA ou les moteurs de réponse est loin de compenser le trafic perdu lorsque Google satisfait lui-même la requête.
Les recherches du projet Generative AI in the Newsroom de Northwestern renforcent ce point. En mars 2025, les éditeurs de presse n’ont reçu que 3,2 % du trafic filtré de ChatGPT et 7,4 % du trafic filtré de Perplexity. Ces chiffres montrent que même lorsque les plateformes d’IA renvoient effectivement des utilisateurs, le volume reste modeste. Ce n’est pas suffisant pour reconstruire l’ancien pacte de la recherche dans lequel l’indexation se traduisait de manière fiable par un flux important de visites.
Le reportage de Digiday de mars 2026 résumait le problème avec justesse : « La mise en avant par l’IA est désordonnée : la visibilité et le trafic des éditeurs sont souvent désalignés. » Buzzstream a analysé 4 millions de citations IA dans 10 secteurs et 3 600 prompts, pourtant le fait d’être mis en avant dans les sorties de l’IA ne garantissait pas une valeur commerciale. Reuters était le seul éditeur à apparaître dans les analyses de visibilité de Buzzstream, Similarweb et Profound citées par Digiday, ce qui suggère que les grands acteurs de type agence de presse pourraient mieux s’en sortir que la plupart. Pour tous les autres, être cité sans clics peut ressembler moins à une découverte qu’à une extraction non compensée.
Le SEO évolue vers l’AEO, le GEO et les relations directes
Parce que l’ancien manuel du search est moins fiable, les éditeurs changent leur manière de penser la visibilité. Digiday a rapporté que beaucoup passent du SEO classique à l’AEO, pour answer engine optimization, et au GEO, pour generative engine optimization. L’objectif n’est plus seulement d’être bien classé dans les liens bleus. Il s’agit de comprendre comment le contenu est analysé, résumé, cité et remplacé par les systèmes d’IA.
Cela dit, les éditeurs concluent de plus en plus que l’optimisation seule ne peut pas résoudre un problème d’échange de valeur. Digital Content Next a soutenu que la poussée de Google vers l’IA relevait de la « substitution » plutôt que d’une découverte additive, en déclarant : « L’utilisation par Google de contenus premium d’éditeurs pour alimenter des résumés générés par l’IA en haut des résultats de recherche n’est pas une innovation, c’est une substitution. » Cette formulation est forte, car elle remet en cause l’idée selon laquelle les éditeurs auraient simplement besoin d’adapter leurs tactiques SEO. Si la plateforme répond elle-même à la requête, alors une meilleure optimisation peut améliorer la visibilité tout en apportant peu en matière de trafic ou de revenus.
En conséquence, de nombreux éditeurs donnent la priorité aux données first-party, aux abonnements, aux applications, aux newsletters et aux autres canaux d’audience directe. Digiday a décrit cela comme une probable « renaissance des données first-party » en 2026. Les éditeurs ne considèrent plus le SEO comme un moteur de croissance autonome. Au contraire, la recherche, le social, la donnée, les abonnements et la stratégie de marque deviennent plus étroitement intégrés, en partie parce que la dépendance au trafic Google paraît désormais plus risquée qu’avant l’expansion de la recherche IA.
Les enjeux business vont désormais au-delà du trafic
Le coût SEO du refus de l’IA ne concerne pas seulement les chiffres d’audience. Il affecte de plus en plus l’économie des éditeurs, l’investissement et leur positionnement stratégique. Search Engine Land a rapporté que les éditeurs de presse s’attendent à une nouvelle baisse de 43 % du trafic de recherche d’ici 2029. Si cette anticipation s’intègre dans les modèles financiers, elle modifie dès aujourd’hui les recrutements, les feuilles de route produit et les décisions concernant les portefeuilles éditoriaux.
L’incertitude autour du trafic influence aussi les opérations de fusion-acquisition. Digiday a rapporté fin 2025 que les opérations de M&A dans l’édition étaient remodelées par les baisses de trafic liées à l’IA, certaines entreprises devenant plus difficiles à faire croître et moins attractives pour les acheteurs. Les données PitchBook citées par Digiday montraient sept opérations de capital-risque impliquant des sociétés d’édition au premier trimestre 2025 et 14 au troisième trimestre 2025, de sorte que le capital n’a pas disparu. Mais les récits de valorisation sont clairement en train d’être reformulés autour des questions de découvrabilité future et de dépendance aux plateformes.
C’est pourquoi les modèles de compensation entrent plus sérieusement dans la discussion. Des travaux académiques et sectoriels récents, notamment un article arXiv de 2026, ont exploré le paiement par crawl et d’autres mécanismes permettant de faire payer aux systèmes d’IA l’accès au contenu des éditeurs. Ces idées en sont encore à un stade précoce, mais elles reflètent une prise de conscience croissante : l’ancien échange entre accès au crawl et trafic de recommandation s’affaiblit. Comme l’a déclaré Nina Gould, directrice de l’innovation chez Forbes, à Digiday : « Cette année, le trafic organique a fortement chuté à mesure que les outils d’IA générative interceptent de plus en plus le chemin vers le contenu des éditeurs », en ajoutant que « l’échange de valeur pour les créateurs de contenu a été nul ».
Pour l’instant, la réalité centrale est claire : les éditeurs sont pris entre deux coûts. Refuser l’IA peut entraîner une pénalité SEO, car la visibilité dans la recherche et l’inclusion dans l’IA restent regroupées d’une manière que les régulateurs commencent à peine à contester. Accepter l’IA peut entraîner une pénalité de trafic, parce que les résumés IA réduisent le taux de clic, renforcent le comportement zero-click et transforment le travail des éditeurs en sorties de moteurs de réponse qui offrent souvent peu de retour.
C’est pourquoi le débat en 2026 ne porte plus seulement sur les tactiques d’optimisation. Il porte sur la conception du marché, la compensation et l’avenir de l’économie de l’information. Comme l’a noté Digiday : « À mesure que nous entrons en 2026, les éditeurs, avec les entreprises d’IA, doivent reconstruire une nouvelle économie de l’information durable. » Tant qu’il n’existera pas de mécanisme de retrait praticable ou de modèle équitable de partage de valeur, les éditeurs continueront de mettre en balance le coût SEO du refus de l’IA avec le coût en trafic du fait de rester à l’intérieur du système.