Le web entre dans une ère où l’information est de plus en plus médiée par des « couches de réponses » et par une génération de contenu à l’échelle industrielle. Cela rend tentant de publier plus, plus vite, surtout avec l’IA générative. Mais le volume n’est pas synonyme de valeur, et les incitations qui récompensaient autrefois le reportage original s’affaiblissent.
Pour que le web ouvert reste utile, et pour que le journalisme, la recherche et l’édition d’expertise restent viables économiquement, nous devons privilégier le reportage original plutôt que le contenu IA de masse. Non pas comme une préférence morale, mais comme une stratégie pratique pour la qualité, la confiance et la durabilité à long terme.
1) Le contenu IA de masse change l’offre, mais pas le signal
L’IA générative a transformé la production de contenu en une activité au coût marginal quasi nul. Ce changement est désormais grand public : Salesforce a indiqué en février 2026 qu’environ 75 % des spécialistes du marketing se tournent vers l’IA pour la production de contenu, accélérant un écosystème déjà saturé.
Quand tout le monde peut publier à grande échelle des résumés « suffisamment bons », le facteur différenciant devient ce que l’IA ne peut pas facilement synthétiser sans source : observation de première main, données uniques, documents, entretiens, expériences et responsabilité liée au domaine. En d’autres termes, le reportage original.
C’est pourquoi « plus de contenu » n’est plus, à lui seul, une stratégie de croissance. Dans un déluge d’explications formatées et de listes paraphrasées, l’actif rare est la provenance : un travail que l’on peut relier à de vraies personnes, de vraies méthodes et des preuves vérifiables.
2) Google dévalorise explicitement les pages génératives à faible effort
Les plateformes réagissent à l’explosion des pages produites à grande échelle avec peu d’effort. Les mises à jour « Core » et « Spam » de Google de mars 2024 ont ciblé les contenus « peu utiles/peu originaux » produits en masse, avec l’objectif déclaré de réduire d’environ 40 % les résultats peu utiles , un geste largement interprété comme un recul face au templating de masse et aux fermes de contenu « spinné » par IA (Search Engine Land, mars 2024).
Cette orientation s’est durcie en janvier 2025, lorsque Google a mis à jour ses Search Quality Rater Guidelines afin d’indiquer aux évaluateurs d’attribuer la note « la plus basse » aux pages qui utilisent l’IA générative pour produire un contenu principal peu original et à faible effort. Les consignes pointent le « contenu paraphrasé » et l’IA générative utilisée avec « peu ou pas d’effort » et « peu ou pas d’originalité », renforçant l’idée que remixer le travail des autres n’est pas ce que les systèmes de qualité cherchent à récompenser (PDF des directives Google, janv. 2025).
Pour les éditeurs, l’implication est simple : si l’IA sert à gonfler la production plutôt qu’à approfondir le reportage, elle peut devenir un handicap de classement. Le reportage original n’est pas seulement un avantage de marque : il s’aligne de plus en plus sur ce que les systèmes de qualité de recherche tentent de faire remonter.
3) Les couches de réponses réduisent les clics : seul le travail distinctif crée la demande
Même lorsque le contenu est bien classé, les interfaces médiées par l’IA peuvent réduire le trafic en aval. Une analyse basée sur Pew, citée par eMarketer (juil. 2025, examinant les SERP de mars 2025), a constaté que les AI Overviews étaient associées à environ la moitié du taux de clic vers des sites externes : 8 % avec un AI Overview contre 15 % sans.
D’autres mesures vont dans la même direction. Des données de TollBit largement citées en 2025 ont indiqué des taux de référencement des chatbots IA autour de 0,37 %, soit environ 95,7 % de moins que les référencements issus de la recherche Google traditionnelle (News/Media Alliance, fév. 2025). Le résumé de Search Engine Land du « State of the Bots » de TollBit (T2 2025) l’a formulé sans détour : Google envoie aux éditeurs 831× plus de visiteurs que les systèmes d’IA.
Cela crée une crise d’incitations : si les lecteurs obtiennent de plus en plus « la réponse » sans visiter la source, alors le contenu générique, facilement résumable, devient économiquement fragile. Ce qui continue de mériter un clic, un abonnement, une citation ou une licence, ce sont généralement des travaux originaux : reportages exclusifs, jeux de données propriétaires, outils et analyses non interchangeables.
4) L’argument économique : le « contournement de la source » menace les budgets de reportage
Les éditeurs n’imaginent pas la pression : à la fois le ressenti du secteur et la recherche la documentent. L’étude de Digiday du T4 2025 a montré que les professionnels des éditeurs citent la baisse du trafic liée à l’IA parmi leurs principaux défis, en mentionnant explicitement la conclusion de TollBit sur des référencements chatbot dramatiquement plus faibles.
Les travaux académiques convergent aussi vers ces inquiétudes. Un article de décembre 2025 a rapporté une « baisse constante et modérée du trafic vers les éditeurs de presse survenant après août 2024 » à la suite de l’introduction de fonctionnalités GenAI, suggérant une évolution structurelle des schémas de découverte plutôt qu’une fluctuation temporaire (arXiv:2512.24968).
Et le cadrage juridique devient frontal. En décembre 2025, la plainte du Chicago Tribune contre Perplexity a soutenu que le système d’IA distribue des reportages du Tribune de sorte que les lecteurs puissent contourner les sites du Tribune, réduisant le trafic et les revenus publicitaires (Axios, déc. 2025). Quand la chaîne de valeur est sous tension, la réponse rationnelle est d’investir dans ce qui ne peut pas être répliqué à bas coût , le reportage original , plutôt que de courir après la publication de texte banalisé.
5) Politiques publiques et tribunaux convergent vers le choix, la citation et la compensation
Les régulateurs commencent à formuler des protections pour les éditeurs dans le contexte des résumés IA. La proposition de l’autorité britannique de la concurrence/régulation, rapportée « le mois dernier » par AP, plaide pour un « choix significatif », la transparence, une citation appropriée et des options permettant aux éditeurs de se retirer des résumés IA, liant explicitement ces résumés à la baisse du trafic des éditeurs (AP).
Parallèlement, les tribunaux évaluent activement la manière dont les systèmes d’IA peuvent ingérer et reproduire le journalisme. En mars 2025, un juge fédéral a autorisé la poursuite de la procédure dans le procès en droit d’auteur The New York Times/OpenAI, une étape procédurale qui souligne à quel point les règles restent incertaines (AP, mars 2025).
Des expérimentations sectorielles émergent en parallèle des litiges. Axios a rapporté en août 2025 que Perplexity a proposé une approche de compensation des éditeurs, incluant des déclarations de partage de revenus et l’existence d’un fonds cité de 42,5 M$ avec des références à une « part de 80 % » pour un produit par abonnement (Axios, août 2025). Quel que soit le modèle, la direction est claire : le marché cherche des mécanismes permettant de maintenir le reportage original financièrement viable dans un monde d’IA-réponse.
6) La transparence est désormais un avantage concurrentiel, pas un simple “bonus”
Un risque du contenu IA de masse est que le public et les plateformes ne peuvent pas facilement distinguer ce qui est réellement rapporté de ce qui est synthétisé. Un audit à grande échelle (été 2025) portant sur 186 000 articles dans environ 1 500 journaux américains a constaté que l’usage de l’IA est « répandu, inégal et rarement divulgué », mettant en évidence un fossé croissant de transparence (arXiv:2510.18774).
Beaucoup proposent la détection de texte IA comme remède, mais les preuves techniques sont préoccupantes. Une recherche de novembre 2025 a montré que les détecteurs de texte IA peuvent échouer de façon « catastrophique » sous paraphrase itérative (arXiv:2511.00416), ce qui signifie que des acteurs malveillants peuvent souvent contourner une simple surveillance tout en produisant un contenu non original.
C’est pourquoi récompenser la provenance est préférable à tenter de punir la synthèse. Un étiquetage clair, des standards éditoriaux, la responsabilité des auteurs, des liens vers les sources, des documents primaires et des méthodologies divulguées sont des moyens pratiques de signaler le reportage original, sans dépendre d’outils de détection peu fiables.
7) Le web est consommé par des bots : des entrées vérifiées comptent davantage
L’écosystème IA ne se contente pas de générer du contenu : il consomme aussi le web à une échelle croissante. TechRadar (fin 2025), citant TollBit, a décrit une accélération de l’activité des bots IA : d’environ 1 visite de bot IA pour 200 visites humaines au début de 2025, à environ 1 pour 31 dans les derniers mois de 2025.
À mesure que les systèmes d’IA ingèrent davantage du web ouvert, la valeur des apports uniques augmente. Si le web devient dominé par du texte retraité, les modèles d’IA comme les utilisateurs font face à un problème de « copie d’une copie » : une chaîne d’approvisionnement informationnelle où les erreurs, les omissions et les généralités fades se cumulent.
Le reportage original, une vérité de terrain recueillie dans le monde réel, agit comme un oxygène frais pour l’écosystème de l’information. Il réduit les dynamiques d’effondrement des modèles, soutient de meilleurs résumés et offre au public quelque chose qui vaut la peine d’être recherché au-delà de ce qu’une synthèse générique peut fournir.
8) Des moyens pratiques de privilégier le reportage original (même quand vous utilisez l’IA)
Privilégier le reportage original ne signifie pas interdire l’IA. Cela signifie utiliser l’IA pour amplifier le reportage plutôt que le remplacer. Par exemple : laisser l’IA aider à la transcription, la traduction, le nettoyage de données ou l’ébauche de structure, tandis que les faits centraux proviennent d’entretiens, de documents, de travail de terrain, d’expériences ou d’analyses propriétaires.
Deuxièmement, concevoir le contenu de sorte que le « contenu principal » soit indiscutablement original. Publier des matériaux primaires (documents, jeux de données, journaux FOIA, code, photos, frises chronologiques annotées), expliquer les méthodes et inclure des détails spécifiques vérifiables qui ne peuvent pas être produits par la paraphrase seule. Cela s’aligne avec la position de Google contre la paraphrase générative à faible effort et aide le public à faire confiance à ce qu’il lit (Google rater guidelines, janv. 2025).
Troisièmement, empaqueter le reportage en actifs durables que les couches de réponses ne peuvent pas remplacer entièrement : bases de données, calculateurs, outils cartographiques, newsletters avec notes de sourcing, expertise spécialisée par secteur (beat), et séries d’enquêtes continues. À mesure que la recherche IA s’étend à l’international et par thématique, une recherche de février 2026 décrit une poursuite de l’augmentation de l’exposition aux AI Overviews ; les éditeurs devraient partir du principe que l’interface continuera d’évoluer et construire une valeur qui survit aux changements d’UI (arXiv:2602.13415).
Privilégier le reportage original plutôt que le contenu IA de masse n’est pas une nostalgie d’un web plus ancien. C’est une adaptation à un nouveau web, où les résumés abondent mais où des apports fiables et différenciés sont rares , et de plus en plus coûteux à produire.
Avec des clics en baisse dans les résultats médiés par l’IA (eMarketer/Pew, juil. 2025), des référencements chatbot proches de zéro (TollBit via News/Media Alliance, fév. 2025), et un trafic global des sites en diminution au fil du temps (Axios citant Similarweb, janv. 2026), le meilleur rempart est un travail qui ne peut pas être banalisé. L’avenir appartient aux éditeurs qui rendent le vrai reportage évident, vérifiable et digne d’être payé, et qui traitent l’IA comme un outil au service de l’originalité, pas comme une usine à imitation.