Les AI Overviews de Google ont été conçus pour fournir des réponses rapides et synthétisées en tête des résultats de recherche. Mais lorsque le sujet est la santé, la rapidité et l’assurance peuvent devenir un risque, surtout si le résumé est erroné, incomplet ou trop généralisé pour la situation d’une personne.
En janvier 2026, Google a commencé à retirer les AI Overviews pour certaines requêtes médicales après des reportages mettant en avant des exemples que des experts ont qualifiés de « dangereux » et « alarmants ». Cette décision met en évidence une tension centrale dans la recherche alimentée par l’IA : les utilisateurs veulent de la clarté, tandis que la médecine exige souvent nuance, contexte et triage soigneux.
Ce qui a changé : Google retire les AI Overviews pour certaines recherches de santé
Le 11 janvier 2026, plusieurs médias ont rapporté que Google « semble avoir supprimé les AI Overviews » pour certaines recherches médicales, notamment des requêtes telles que « quelle est la plage normale pour les analyses sanguines hépatiques » et « quelle est la plage normale pour les tests de fonction hépatique ». Ces articles faisaient suite à une enquête du Guardian sur l’exactitude et la sécurité des résumés de santé générés par l’IA.
Ces suppressions n’ont pas été présentées comme un arrêt généralisé des AI Overviews liés à la santé. Elles semblaient plutôt ciblées : certaines formulations de requêtes ont cessé d’afficher la fonctionnalité, tandis que d’autres sujets de santé continuaient de déclencher des AI Overviews, selon des synthèses ultérieures dans la presse.
The Verge a décrit le changement comme Google « retirant » les AI Overviews pour certaines recherches médicales après la couverture d’inexactitudes dangereuses. TechCrunch a de même signalé ces suppressions apparentes et a cité les requêtes sur les « plages normales » des tests hépatiques comme des exemples clairs de désactivation de la fonctionnalité.
Les enquêtes qui ont déclenché la réponse
L’enquête du Guardian du 2 janvier 2026 a répertorié des cas où les AI Overviews auraient produit des conseils de santé trompeurs ou néfastes. L’article a mis en avant des exemples qui, selon des experts, pourraient orienter des utilisateurs vers une auto-prise en charge inappropriée ou une fausse assurance face à des affections graves.
Parmi les problèmes cités figuraient des résumés problématiques impliquant des informations liées au cancer et l’interprétation de tests. Les reportages soulignaient que même de petites erreurs de contexte médical , quoi manger, ce que signifie une valeur de laboratoire, quand consulter en urgence , peuvent avoir des conséquences disproportionnées.
Le 11 janvier 2026, le Guardian a rapporté que les AI Overviews sur les « plages normales » des tests hépatiques avaient été supprimés après que des experts ont averti qu’ils pouvaient induire en erreur des personnes atteintes de maladies hépatiques graves. L’article observait aussi que des requêtes légèrement modifiées pouvaient encore produire des AI Overviews au moment des tests, soulevant des inquiétudes sur la cohérence de l’application des changements de sécurité.
Pourquoi les « plages normales » peuvent constituer un piège dans les tests de fonction hépatique
L’un des principaux points de tension concernait la manière dont les résumés IA traitaient les questions de « plage normale » pour les analyses sanguines hépatiques et les tests de fonction hépatique (LFTs). En pratique clinique, interpréter des LFT est rarement aussi simple que de comparer un chiffre à un intervalle de référence : le contexte compte, les tendances comptent, et les symptômes comptent.
Vanessa Hebditch, de la British Liver Trust, a averti que l’interprétation est « complexe » et que les AI Overviews peuvent ne pas faire comprendre que l’on peut avoir des résultats « normaux » tout en souffrant d’une maladie hépatique grave. Elle a ajouté : « Cette fausse réassurance pourrait être très préjudiciable. » Cette critique reflète un risque classique pour la sécurité des patients : une réponse trop simplifiée qui décourage le suivi.
Le reportage du Guardian suggérait que les experts étaient particulièrement préoccupés par le risque qu’un résumé généré par IA laisse entendre que « normal » équivaut à « en bonne santé », sans mentionner de manière visible les limites, les signaux d’alarme ou la nécessité d’une interprétation clinique, en particulier pour les personnes déjà à risque.
Conseils alimentaires pour le cancer du pancréas : quand l’assurance de l’IA se heurte à la réalité clinique
Un autre exemple largement cité concernait des recommandations alimentaires pour le cancer du pancréas. Le Guardian a rapporté qu’un AI Overview incluait des conseils que des experts ont jugés dangereux ou trompeurs pour des patients engagés dans des parcours de traitement complexes avec des besoins nutritionnels spécifiques.
Un représentant de Pancreatic Cancer UK a qualifié ces recommandations de « complètement incorrectes » et a averti qu’elles « pourraient être vraiment dangereuses et compromettre les chances d’une personne d’être suffisamment en forme pour recevoir un traitement ». En oncologie, la nutrition est souvent individualisée et peut être déterminante pour la capacité d’un patient à tolérer un traitement.
Cet épisode illustre un risque plus large lié à l’IA : un résumé peut paraître autoritaire tout en compressant des recommandations complexes et spécifiques au patient en règles simplistes. Même lorsque les sources sous-jacentes sont de qualité hétérogène, ou lorsque le modèle généralise au-delà des preuves, le résultat final peut sembler décisif.
Variations de requêtes : pourquoi de légères différences de formulation importent encore
L’un des détails techniques les plus préoccupants mis en avant est que les suppressions ne s’appliquaient pas nécessairement de manière uniforme à des recherches similaires. TechCrunch et d’autres rapports ont noté que de légères variations, telles que « lft reference range » ou « lft test reference range », pouvaient encore faire apparaître des AI Overviews (du moins au moment des tests).
Cela compte parce que les utilisateurs réels ne recherchent pas dans un langage clinique standardisé. Ils essaient différentes formulations, abréviations et fragments, souvent en itérant jusqu’à voir quelque chose qui ressemble à une réponse, ce qui signifie que des lacunes dans l’application des protections peuvent saper la sauvegarde envisagée.
Si les protections de sécurité dépendent fortement de la formulation exacte, un système peut réduire le risque pour une requête tout en laissant des requêtes quasi identiques exposées. Cette dynamique est particulièrement risquée en santé, où la même question sous-jacente peut être posée de dizaines de façons courantes.
La position publique de Google et le contexte politique plus large
Dans l’ensemble de la couverture, le porte-parole de Google a refusé d’aborder des exemples précis, déclarant : « Nous ne commentons pas les suppressions individuelles au sein de la Recherche… nous travaillons à apporter des améliorations d’ensemble… » Cette position laisse les observateurs externes déduire ce qui a changé à partir de tests en conditions réelles et de comportements rapportés plutôt qu’à partir d’un journal de modifications détaillé.
Google a déjà mis en avant des protections pour les AI Overviews. Dans une mise à jour de mai 2024, l’entreprise a indiqué avoir ajouté des restrictions pour les requêtes où les AI Overviews n’étaient pas utiles et que « dans le cas de la santé, nous avons lancé des ajustements de déclenchement supplémentaires pour renforcer nos protections de qualité ». Google a également déclaré que « moins d’une requête unique sur 7 millions » comportait une violation de sa politique de contenu, selon sa mesure interne.
Les suppressions de janvier 2026 suggèrent que, malgré les garde-fous annoncés, des cas limites (et parfois pas si limites) peuvent encore passer entre les mailles du filet, surtout lorsque la question invite à une interprétation médicale trop simplifiée. La présence continue d’AI Overviews sur d’autres sujets médicaux, comme l’ont relevé des articles économiques, indique également que Google itère plutôt que de renoncer totalement aux résumés IA en santé.
Google retire les AI Overviews pour les requêtes de santé dans des moments comme celui-ci non seulement parce que les exemples sont alarmants, mais parce que la recherche en santé est particulièrement à enjeux élevés : les utilisateurs peuvent agir immédiatement sur ce qu’ils lisent, sans deuxième avis. Quand un résumé IA compresse une médecine incertaine ou dépendante du contexte en un paragraphe net, le préjudice n’est pas seulement la désinformation ; c’est une confiance mal placée.
La leçon pratique est que l’enjeu porte moins sur le fait de savoir si l’IA doit résumer des informations de santé que sur sa capacité à reconnaître de manière cohérente quand elle ne le doit pas. L’épisode de janvier 2026, couvrant les plages des tests hépatiques, les conseils alimentaires pour le cancer du pancréas et les failles liées aux variations de requêtes, montre que l’exactitude est nécessaire mais non suffisante ; une présentation sûre, des règles de déclenchement robustes et des choix par défaut prudents comptent tout autant.