Les éditeurs intensifient leur campagne pour se retirer des résumés générés par l’IA alors que des « moteurs de réponse » et des plateformes de recherche synthétisent de plus en plus le journalisme en réponses instantanées. Le point de cristallisation est AI Overviews de Google (précédemment désigné dans les médias comme « AI summaries »), qui peut reproduire l’essentiel d’un article tout en réduisant le besoin de cliquer vers la source originale.
Au Royaume‑Uni et en Europe, le débat passe de préoccupations abstraites sur « l’IA sur le web » à des questions concrètes de contrôle, de consentement et de compensation. Les éditeurs soutiennent que si leurs contenus servent à entraîner ou à alimenter des réponses d’IA, ils devraient pouvoir refuser, poser des conditions ou négocier une contrepartie, sans être pénalisés dans l’écosystème de recherche même qui génère la découverte.
1) La proposition du Royaume‑Uni : rendre obligatoire la possibilité de se retirer des AI Overviews
Un catalyseur majeur est la proposition britannique visant à obliger Google à permettre aux éditeurs de se retirer des AI Overviews. Comme rapporté, le Royaume‑Uni étudie des exigences qui garantiraient une option de désinscription afin que le contenu des éditeurs ne soit pas utilisé dans les résumés générés par Google.
La logique politique est simple : les éditeurs ne devraient pas avoir à accepter la summarisation par l’IA comme condition par défaut pour être indexés dans Search. En pratique, une option réglementaire de retrait viserait à séparer « être indexable » de « être résumé par l’IA », transformant un produit de facto groupé en deux autorisations distinctes.
Pour les éditeurs, l’intérêt n’est pas seulement de principe mais aussi de levier. Si la loi impose une option de retrait utilisable, les négociations sur les licences et l’attribution deviennent plus réalistes, car les plateformes ne peuvent plus répondre simplement « l’alternative est de quitter Search ».
2) La plainte centrale : se retirer des résumés IA sans perdre de visibilité dans Search
Les éditeurs pressent Google de fournir une option de désinscription d’AI Overviews qui ne s’accompagne pas de la pénalité de perdre de la visibilité dans les résultats traditionnels de Search. Ils soutiennent que la situation actuelle ressemble à un échange forcé : accepter la réutilisation par l’IA ou risquer d’être effectivement effacé du principal canal de découverte.
Cette plainte ne se limite pas aux grands titres nationaux. Les éditeurs régionaux et les sites spécialisés dépendent souvent encore plus des référencements issus de la recherche, rendant le dilemme « se retirer et disparaître » existentiel. Quand les réponses d’IA satisfont directement l’intention de l’utilisateur sur la page de résultats, les clics restants se concentrent sur un nombre réduit de gagnants.
Du point de vue des éditeurs, un retrait qui entraîne une rétrogradation n’est pas un consentement significatif. C’est proche de la coercition, surtout si la même plateforme est à la fois le gardien des audiences et celle qui monétise les pages enrichies par l’IA.
3) Pourquoi robots.txt et Google‑Extended sont jugés insuffisants
Google met en avant les mécanismes d’exclusion existants basés sur robots.txt, y compris des contrôles comme Google‑Extended. La position de l’entreprise, soulignée dans la couverture européenne et orientée vers les éditeurs, est que les webmasters peuvent exprimer leurs préférences via des outils techniques établis.
Les éditeurs répliquent que ces mécanismes ne fournissent pas le contrôle spécifique dont ils ont besoin sur les réponses générées par l’IA. Une frustration largement rapportée est que bloquer « Google‑Extended » n’empêche toujours pas les AI Overviews, parce que ces derniers sont liés à Google Search, et pas seulement à un crawling IA séparé.
Cette distinction importe opérationnellement. Si les AI Overviews sont traités comme une « fonctionnalité de Search », alors les contrôles visant « l’entraînement IA » ou le « crawling IA » peuvent ne pas se mapper clairement sur la « summarisation IA dans Search ». Les éditeurs veulent un interrupteur direct et sans ambiguïté qui dit : indexez mes pages, mais ne générez pas de réponses d’IA à partir d’elles.
4) Le blocage « en un clic » des crawlers IA de Cloudflare et l’enjeu infrastructurel
Alors que les contrôles au niveau des plateformes restent contestés, certains éditeurs se tournent vers les fournisseurs d’infrastructure. Cloudflare a introduit un blocage « en un clic » des crawlers IA comme tactique pour aider les sites à contrôler ou limiter le scraping par l’IA et améliorer leur pouvoir de négociation.
Cloudflare a également présenté le crawling IA comme évoluant vers une approche basée sur les permissions, en mettant l’accent sur le contrôle des éditeurs et la possibilité de modèles de compensation. Cela signale un changement plus large : au lieu de combattre bot par bot en périphérie, les éditeurs veulent des normes applicables sur qui peut accéder au contenu et à quelles conditions.
Dans son message « Declare your AIndependence », Cloudflare a décrit le comportement des clients et les schémas d’accès des bots, incluant des statistiques réseau sur l’accès et le blocage des bots IA sur des propriétés Internet importantes. Pour les éditeurs, ces statistiques étayent l’affirmation selon laquelle l’extraction automatisée n’est pas un problème marginal : elle est persistante, évolutive et souvent économiquement déséquilibrée.
5) « Aucun échange de valeur significatif » : le déséquilibre trafic et revenus
La presse professionnelle des éditeurs a résumé l’état d’esprit de manière directe : les bots IA bombardent les sites d’éditeurs sans « échange de valeur significatif ». La plainte ne porte pas seulement sur la charge serveur ou l’étiquette du scraping, mais sur l’économie plus large de l’attention.
Quand les résumés IA répondent instantanément à la question, le clic qui aurait pu générer des revenus publicitaires, des abonnements ou de la fidélité à la marque peut disparaître. Même lorsqu’un lien est présent, il peut devenir anecdotique, surtout si l’utilisateur juge la réponse de l’IA « assez bonne ».
C’est pourquoi le débat sur le retrait est indissociable de la viabilité. Les éditeurs voient leur journalisme transformé en matière première pour des expériences IA, tandis que les bénéfices mesurables , références, attribution et paiements , ne correspondent souvent pas à l’échelle de la réutilisation.
6) Orientation industrielle : les bonnes pratiques de l’IPTC et les limites du signalement actuel
Consciente du besoin de normes partagées, l’IPTC a publié les « Generative AI Opt‑Out Best Practices » pour les éditeurs. L’orientation se concentre sur des approches pratiques de signalisation et reconnaît la réalité compliquée de la mise en œuvre à travers différents systèmes d’IA.
Un thème clé est que le blocage de bots spécifiques peut être incomplet, surtout lorsque les fonctionnalités d’IA sont intégrées dans des pipelines de crawling ou de recherche à usage général. L’orientation oriente aussi les éditeurs vers des options au niveau de l’infrastructure, un clin d’œil implicite à des outils comme les CDN et les contrôles WAF quand les règles applicatives ne suffisent pas.
Pourtant, les bonnes pratiques ne peuvent aller très loin sans force exécutoire. Les éditeurs peuvent publier des politiques et des signaux, mais leur efficacité dépend de la volonté des opérateurs d’IA de les respecter et de la capacité des plateformes à fournir des contrôles granulaires et auditable sur des usages en aval comme les résumés d’IA.
7) Des normes aux procès : propositions ai.txt et montée de la pression juridique
Certains techniciens estiment que le web a besoin d’un protocole plus clair que robots.txt pour les interactions avec l’IA. Une proposition sur arXiv pour un « ai.txt » vise à améliorer robots.txt en réglementant explicitement la façon dont les agents et modèles d’IA interagissent avec le contenu web, motivée par les limites auxquelles les éditeurs sont confrontés aujourd’hui.
Parallèlement, les éditeurs montent d’un cran au‑delà des mesures techniques et vont devant les tribunaux. Un exemple notable est la poursuite du Chicago Tribune contre Perplexity, qui met en avant des allégations de violation de droits d’auteur liées à la reproduction et la summarisation par l’IA, montrant que le conflit ne porte plus seulement sur le fait de se retirer.
Les différends sur la conformité intensifient aussi la méfiance. Des reportages sur un conflit Cloudflare vs. Perplexity incluent des allégations de Cloudflare d’« exploration furtive » pour contourner les blocages d’exclusion, ce que Perplexity conteste. Indépendamment de qui a raison dans un cas donné, de tels affrontements soulignent pourquoi les éditeurs veulent des règles plus claires, une vérification renforcée et des conséquences en cas d’évasion.
8) Les partenariats comme voie alternative : licences, attribution et accès négocié
Tous les éditeurs ne choisissent pas la confrontation seule. Certains explorent des licences et des partenariats qui formalisent la façon dont le contenu peut être utilisé dans des produits IA. Le partenariat de Le Monde avec Perplexity est un exemple souvent cité d’une voie cherchant à concilier innovation et protection des droits des éditeurs et des journalistes.
Ces accords suggèrent un terrain d’entente possible : une réutilisation autorisée avec attribution et compensation définies. Pour les entreprises d’IA, les partenariats peuvent réduire le risque juridique et améliorer la qualité et l’actualité des sources. Pour les éditeurs, ils peuvent créer de nouvelles sources de revenus et restaurer un certain contrôle sur la présentation et l’intégrité de la marque.
Cependant, les partenariats n’éliminent pas la demande d’un retrait de base. Les éditeurs craignent que, sans une capacité robuste de refuser les résumés IA, seules les plus grandes marques disposeront d’un pouvoir de négociation, tandis que les petits médias seront confrontés à des conditions « à prendre ou à laisser ».
La poussée pour se retirer des résumés IA est en fin de compte une tentative de redessiner les frontières du web ouvert. Les éditeurs ne rejettent pas l’indexation ou la découverte ; ils contestent l’hypothèse selon laquelle les réponses générées par l’IA peuvent ingérer, compresser et republier librement leur travail comme couche par défaut au‑dessus de Search.
Entre la proposition du Royaume‑Uni, la pression continue sur Google pour une option de retrait non punitive d’AI Overviews, l’essor d’outils de blocage au niveau de l’infrastructure comme le contrôle en un clic de Cloudflare, et l’émergence de propositions de standards et de procès, la direction est claire : consentement et échange de valeur deviennent centraux. Que l’issue soit la réglementation, de nouveaux standards techniques comme ai.txt, des licences plus larges, ou tout cela à la fois, les éditeurs signalent que « résumer d’abord, demander ensuite » n’est plus acceptable.