Los AI Overviews de Google se diseñaron para ofrecer respuestas rápidas y sintetizadas en la parte superior de la Búsqueda. Pero cuando el tema es la salud, la rapidez y la confianza pueden ser un riesgo, especialmente si el resumen es erróneo, incompleto o demasiado general para la situación de una persona.
En enero de 2026, Google empezó a retirar los AI Overviews para determinadas consultas médicas después de que informaciones periodísticas destacaran ejemplos que expertos calificaron de “peligrosos” y “alarmantes”. La medida subraya una tensión central en la búsqueda impulsada por IA: los usuarios quieren claridad, mientras que la medicina a menudo exige matices, contexto y un triaje cuidadoso.
Qué cambió: Google retira los AI Overviews para búsquedas específicas de salud
El 11 de enero de 2026, varios medios informaron que Google “parece haber eliminado los AI Overviews” para búsquedas médicas específicas, incluidas consultas como “cuál es el rango normal de las pruebas de sangre del hígado” y “cuál es el rango normal de las pruebas de función hepática”. Estas informaciones siguieron a una investigación de The Guardian sobre la precisión y la seguridad de los resúmenes de salud generados por IA.
Estas retiradas no se plantearon como un cierre generalizado de los AI Overviews relacionados con la salud. Más bien parecían selectivas: ciertas formulaciones de consulta dejaron de mostrar la función, mientras que otros temas de salud siguieron activando los AI Overviews, según resúmenes posteriores en la prensa.
The Verge caracterizó el cambio como que Google “retiró” los AI Overviews para algunas búsquedas médicas tras la cobertura de inexactitudes peligrosas. TechCrunch señaló de manera similar las aparentes retiradas y señaló las consultas sobre el “rango normal” de pruebas hepáticas como ejemplos claros de la desactivación de la función.
Las investigaciones que desencadenaron la respuesta
La investigación de The Guardian del 2 de enero de 2026 catalogó casos en los que los AI Overviews supuestamente produjeron orientaciones de salud engañosas o perjudiciales. El artículo destacó ejemplos que, según expertos, podrían llevar a los usuarios a una autogestión inapropiada o a una falsa confianza respecto a afecciones graves.
Entre los problemas citados hubo resúmenes problemáticos relacionados con información sobre el cáncer y la interpretación de pruebas. Los reportajes enfatizaron que incluso pequeños errores en el contexto médico , qué comer, qué significa un valor de laboratorio, cuándo buscar atención urgente, pueden tener consecuencias desproporcionadas.
El 11 de enero de 2026, The Guardian informó que se habían eliminado los AI Overviews sobre el “rango normal” de pruebas hepáticas después de que expertos advirtieran que podrían engañar a personas con enfermedades hepáticas graves. El artículo también observó que consultas ligeramente modificadas aún podían generar AI Overviews en el momento de las pruebas, lo que suscitó dudas sobre la consistencia en la aplicación de los cambios de seguridad.
Por qué los “rangos normales” pueden ser una trampa en las pruebas de función hepática
Uno de los puntos clave de fricción fue la manera en que los resúmenes de IA trataban las preguntas sobre “rango normal” para análisis de sangre del hígado y pruebas de función hepática (LFT, por sus siglas en inglés). En la práctica clínica, interpretar las LFT rara vez es tan simple como comparar un número con un intervalo de referencia: el contexto importa, las tendencias importan y los síntomas importan.
Vanessa Hebditch, de la British Liver Trust, advirtió que la interpretación es “compleja” y que los AI Overviews podrían no transmitir que alguien puede tener resultados “normales” y aun así padecer una enfermedad hepática grave. Añadió: “Esta falsa tranquilidad podría ser muy perjudicial”. Esa crítica refleja un riesgo clásico para la seguridad del paciente: una respuesta excesivamente pulcra que desincentiva el seguimiento.
Los reportajes de The Guardian sugirieron que a los expertos les preocupaba especialmente la posibilidad de que un resumen generado por IA implicara que “normal” equivale a “saludable”, sin indicar de forma destacada las limitaciones, las señales de alarma o la necesidad de interpretación clínica, especialmente para personas ya en riesgo.
Consejos dietéticos para el cáncer de páncreas: cuando la confianza de la IA se enfrenta a la realidad clínica
Otro ejemplo ampliamente citado involucró orientación dietética para el cáncer de páncreas. The Guardian informó que un AI Overview incluía consejos que expertos cuestionaron por ser inseguros o engañosos para pacientes que atraviesan vías de tratamiento complejas y necesidades nutricionales específicas.
Un representante de Pancreatic Cancer UK describió la orientación como “completamente incorrecta” y advirtió que “podría ser realmente peligrosa y poner en riesgo las posibilidades de que una persona esté lo suficientemente bien como para recibir tratamiento”. En oncología, la nutrición suele ser individualizada y puede ser fundamental para la capacidad del paciente de tolerar la terapia.
Este episodio ilustra un riesgo más amplio de la IA: un resumen puede sonar autoritativo mientras comprime orientaciones complejas y específicas del paciente en reglas simplistas. Incluso cuando las fuentes subyacentes son de calidad variable, o cuando el modelo generaliza más allá de la evidencia, el resultado final puede parecer concluyente.
Variaciones de consulta: por qué los pequeños cambios de redacción siguen importando
Uno de los detalles técnicos más preocupantes de la cobertura es que las retiradas no se aplicaron necesariamente de forma homogénea en búsquedas similares. TechCrunch y otros informes señalaron que pequeñas variaciones, como “lft reference range” o “lft test reference range”, aún podían mostrar AI Overviews (al menos en el momento de la cobertura).
Esto es importante porque los usuarios reales no buscan en un lenguaje clínico estandarizado. Prueban distintas formulaciones, abreviaturas y fragmentos, a menudo iterando hasta ver algo que parezca una respuesta, lo que significa que las lagunas en la aplicación pueden socavar la salvaguarda prevista.
Si las protecciones de seguridad dependen en gran medida de la redacción exacta, un sistema puede reducir el daño para una consulta y dejar expuestas otras casi idénticas. Esa dinámica es particularmente arriesgada en salud, donde una misma pregunta subyacente puede formularse de decenas de maneras cotidianas.
La postura pública de Google y el contexto normativo más amplio
En las distintas coberturas, el portavoz de Google se negó ger a abordar ejemplos concretos, afirmando: “No comentamos retiradas individuales dentro de la Búsqueda… trabajamos para realizar mejoras generales…”. Esa postura deja a los observadores externos inferir qué cambió a partir de pruebas en vivo y del comportamiento observado, en lugar de un registro detallado de cambios.
Google ha destacado anteriormente las protecciones para los AI Overviews. En una actualización de mayo de 2024, la empresa dijo que añadió restricciones para consultas en las que los AI Overviews no eran útiles y que “en el caso de la salud, lanzamos refinamientos adicionales de activación para mejorar nuestras protecciones de calidad”. Google también afirmó que “menos de una de cada 7 millones de consultas únicas” presentaba una infracción de la política de contenidos, según su medición interna.
Las retiradas de enero de 2026 sugieren que, pese a las salvaguardas declaradas, los casos límite (y a veces no tan límite) aún pueden colarse, especialmente cuando la pregunta invita a una interpretación médica excesivamente simplificada. La presencia continuada de AI Overviews en otros temas médicos, como señaló la prensa económica, también indica que Google está iterando en lugar de retirarse por completo de los resúmenes de IA en salud.
Google retira los AI Overviews para consultas de salud en momentos como este no sólo porque los ejemplos sean alarmantes, sino porque la búsqueda sobre salud tiene un riesgo singularmente alto: los usuarios pueden actuar de inmediato en función de lo que leen, sin una segunda opinión. Cuando un resumen de IA comprime una medicina incierta o dependiente del contexto en un párrafo pulcro, el daño no es sólo desinformación, es confianza mal depositada.
La conclusión práctica es que la batalla tiene menos que ver con si la IA debe resumir información de salud y más con cuán consistentemente puede reconocer cuándo no debe hacerlo. El episodio de enero de 2026, que abarca rangos de pruebas hepáticas, consejos dietéticos para el cáncer de páncreas y vacíos por variación de consultas, muestra que la precisión es necesaria pero no suficiente; una presentación segura, reglas de activación robustas y valores predeterminados conservadores pueden ser igual de importantes.