Los editores están reaccionando cada vez más contra los “resúmenes de IA” en la búsqueda y otros resúmenes generados por IA, argumentando que la tecnología reescribe la economía de la web abierta. Cuando un usuario obtiene una respuesta directamente en una página de resultados, el valor de la investigación original, el tiempo, la experiencia y el coste puede capturarse sin la visita que históricamente la financiaba mediante anuncios o suscripciones.
El debate ha dejado de ser una preocupación abstracta y se ha convertido en impactos de tráfico medibles y propuestas de política concretas. En el Reino Unido, los reguladores están explorando normas que permitirían a los editores controlar si su trabajo se utiliza en los resúmenes de IA de Google, mientras que grupos del sector en EE. UU. están redactando legislación dirigida al scraping y a la summarización por IA. Al mismo tiempo, los proveedores de infraestructura están mostrando lo agresivamente que los bots de IA rastrean contenido en comparación con las referencias que los editores realmente reciben.
1) Por qué los “resúmenes de IA” se convirtieron en un punto crítico para los editores
Los editores han aceptado durante mucho tiempo un acuerdo básico con los motores de búsqueda: permitir el rastreo y la indexación, y a cambio recibir tráfico de referencia que puede monetizarse. Los resúmenes de IA tensan ese pacto al responder consultas en la propia página de búsqueda, lo que podría reducir la necesidad de hacer clic para llegar al sitio original.
Los editores citan cada vez más datos para apoyar esta preocupación. Pew Research, analizando datos de navegación de marzo de 2025 (publicados el 22 de julio de 2025), encontró que los usuarios hacían clic en un resultado de búsqueda tradicional el 8% de las veces en páginas con resúmenes de IA, frente al 15% sin ellos. Pew también informó que los clics en un enlace dentro del resumen de IA ocurrieron solo el 1% de las veces.
La investigación de Pew también apunta a un cambio de comportamiento que preocupa a los editores: las sesiones sin clic. Las sesiones de navegación terminaron en el 26% de las páginas con resúmenes de IA frente al 16% sin ellos, lo que sugiere que los resúmenes de IA pueden satisfacer la intención sin enviar al lector a otra página.
2) La CMA del Reino Unido interviene: una propuesta de exclusión dirigida a Google
El 28 de enero de 2026, la Autoridad de Competencia y Mercados del Reino Unido (CMA) propuso una “exclusión” para editores frente a los resúmenes de IA de Google, lo que significa que los editores y creadores de contenido podrían exigir que su material no se utilice en resúmenes generados por IA. La propuesta se plantea como un remedio a las preocupaciones de los editores sobre la pérdida de tráfico y el debilitamiento del poder de negociación.
La consulta de la CMA de enero de 2026 cubre múltiples expectativas: controles para editores (incluida la exclusión), transparencia y mejor atribución. El plazo de la consulta está fijado para el 25 de febrero de 2026, dando a editores, plataformas y anunciantes una ventana formal para opinar sobre cómo deberían funcionar estas normas en la práctica.
Según un reportaje del Financial Times en enero de 2026, el enfoque de la CMA en los resúmenes de IA forma parte de un régimen más amplio de “estatus de mercado estratégico” para Google Search. El informe describe requisitos de conducta diseñados para dar a los editores más control sobre el uso de su contenido en los resúmenes de IA, junto con una atribución más fuerte y mayor transparencia en el ranking, respaldados por sanciones que podrían alcanzar hasta el 10% de la facturación global por incumplimientos.
3) “Excluirse” hoy puede sentirse punitivo, dicen los editores
Los editores han argumentado que los controles existentes no resuelven el problema real. Una queja recurrente es que la elección práctica ha sido: permitir el uso de contenido por parte de la IA, o arriesgarse a una menor visibilidad en la búsqueda tradicional, convirtiendo efectivamente el “consentimiento” en un intercambio forzado.
The Guardian informó el 28 de enero de 2026 que los grupos mediáticos dicen que la exclusión actual es efectivamente punitiva. En su opinión, evitar los resúmenes de IA puede significar perder protagonismo en los resultados estándar de Google Search, lo que limita el poder de negociación e intensifica las demandas de una verdadera exclusión solo para IA que no castigue la indexación normal.
Esta distinción importa porque los editores suelen querer descubrimiento, pero no extracción. En otras palabras, pueden aceptar ser indexados y enlazados, pero rechazar que su trabajo periodístico sea resumido de manera que reduzca los clics o sustituya al artículo original, sobre todo cuando el resumen se convierte en la experiencia de usuario principal.
4) La historia del tráfico: menos clics, sesiones que terminan antes
Pew Research estima que los resúmenes de IA aparecieron en aproximadamente el 18% de las búsquedas de Google en su conjunto de datos de marzo de 2025, aproximadamente una de cada cinco. Pew también encontró que el 88% de los resúmenes de IA citaban tres o más fuentes, y que la longitud mediana del resumen fue de 67 palabras, lo que subraya que estos resúmenes son compactos pero a menudo multisource.
Incluso con citaciones, los editores dicen que el resultado agregado son menos visitas. La comparación de tasas de clics de Pew (15% sin resúmenes de IA frente a 8% con ellos) ha sido ampliamente referenciada en discusiones de la industria y en coberturas secundarias, incluyendo resúmenes que señalan que la tasa de clics casi se reduce a la mitad cuando aparecen resúmenes de IA.
Otros análisis citados en la cobertura del sector coinciden con el patrón. MediaPost, citando a Ahrefs, informó que la presencia de resúmenes de IA se correlacionó con una tasa de clics (CTR) promedio un 34,5% menor para palabras clave informativas. Y también se han reportado cambios más amplios en la dependencia de la búsqueda; por ejemplo, TechCrunch señaló informes que citaban datos de Similarweb/WSJ según los cuales la cuota de búsqueda orgánica de The New York Times cayó al 36,5% en abril de 2025 desde el 44% tres años antes.
5) Atribución y la pregunta “quién se beneficia”
Una razón por la que las citaciones por sí solas no satisfacen a los editores es que la visibilidad no se distribuye de manera uniforme. Pew encontró que las fuentes más citadas se inclinan hacia las grandes plataformas: Wikipedia, YouTube y Reddit representaron colectivamente el 15% de las fuentes enlazadas en los resúmenes de IA (y también ocupaban posiciones altas en los resultados estándar). Los editores más pequeños o especializados temen que esta dinámica concentre aún más la atención.
Los editores también sostienen que los enlaces han sido históricamente el intercambio de valor clave. La directora general de News/Media Alliance, Danielle Coffey, capturó este sentimiento en una cita del 23 de mayo de 2025 citada por MediaPost: “Los enlaces eran la última cualidad redentora de la búsqueda para los editores. Google ahora puede tomar ese contenido por la fuerza y usarlo sin darle nada a los editores a cambio.”
La dirección de la política que se discute en el Reino Unido , una mayor atribución, controles más claros y transparencia en el ranking, refleja un intento de responder a esta pregunta de “quién se beneficia” con normas exigibles en lugar de promesas informales. Los editores quieren asegurarse de que ser citado no se convierta en un sustituto de ser visitado.
6) Rastreo de IA frente a referencias: Cloudflare dice que el acuerdo se está rompiendo
Más allá de las interfaces de búsqueda, los editores también se enfrentan a la mecánica de la recopilación de datos para IA: bots que rastrean páginas a gran escala. Cloudflare informó en junio de 2025 que las proporciones de rastreo de IA frente a referencias pueden ser extremas, estimadas en 1.700:1 para OpenAI y 73.000:1 para Anthropic, lo que sugiere que se está recuperando mucho más contenido del que el tráfico devuelve.
Cloudflare también ha destacado cuán generalizada se ha vuelto la extracción automatizada. Cloudflare Radar 2025 (publicado en enero de 2026) informó que los bots de IA representaron en promedio alrededor del 4,2% del tráfico de solicitudes HTML a lo largo de 2025, mientras que Googlebot por separado fue aproximadamente el 4,5%. Para los editores, esos números se traducen en una carga significativa de infraestructura y en la sensación de que el contenido se está cosechando como un recurso.
Al mismo tiempo, el lado de los editores está desigualmente preparado. Cloudflare informó que solo alrededor del 37% de los 10.000 dominios principales tenía un archivo robots.txt en junio de 2025, lo que indica que muchos sitios no están utilizando controles de exclusión básicos incluso cuando el rastreo de IA crece. Sin embargo, la adopción de herramientas más estrictas está aumentando: Cloudflare afirma que más de 1 millón de clientes activaron su control de “bloquear raspadores de IA” con un clic (desde julio de 2024, reportado en 2025), señalando una reacción a gran escala.
7) La respuesta de la industria en EE. UU.: la IAB lo llama una “crisis existencial”
En EE. UU., la disputa también está tomando una vía legislativa. El 2 de febrero de 2026, la Interactive Advertising Bureau (IAB) publicó un borrador de la “Ley de Responsabilidad de la IA para Editores”, dirigida al scraping de contenido por IA y a los resúmenes generados por IA. La IAB posicionó el tema como central para la sostenibilidad de la publicación financiada por publicidad.
El director ejecutivo de la IAB, David Cohen, sostuvo que los sistemas de IA rastrean contenido de los editores para entrenar grandes modelos de lenguaje y generar resúmenes “a menudo sin pagar un centavo”, calificando la situación como una “crisis existencial” para los editores. En coberturas posteriores, MediaPost informó que Cohen advirtió que las empresas de IA “están aprovechándose de sus inversiones” y que la web podría convertirse en “la sombra de sí misma” si los bots siguen extrayendo contenido sin compensación.
Axios también cubrió el impulso de la IAB, señalando la caracterización de la organización del uso no licenciado por IA como “robo”. Independientemente de la etiqueta legal, el empuje político es claro: los editores quieren límites exigibles sobre el scraping y la resumización, así como vías para el pago o la concesión de licencias cuando su trabajo se utiliza para alimentar productos de IA.
8) Hacia la concesión de licencias, divulgaciones y “etiquetas nutricionales” para noticias de IA
También están surgiendo propuestas que van más allá de las exclusiones y se encaminan a divulgaciones estandarizadas y marcos de compensación. El think tank británico IPPR, según informó The Guardian el 30 de enero de 2026, propuso mecanismos de licencia/pago y “etiquetas nutricionales” para noticias de IA que divulguen fuentes y hagan que la salida generada por IA sea más fácil de evaluar.
Estas ideas reflejan un temor más amplio: si la IA se convierte en un “guardia de acceso” que responde preguntas directamente, los editores pueden convertirse en proveedores aguas arriba con poco control sobre la distribución, la marca o los ingresos. La transparencia, qué fuentes se utilizaron, cómo se ponderaron y qué se transformó, se convierte en un requisito previo para una negociación significativa.
Las expectativas regulatorias en la consulta de la CMA, los controles para editores, la transparencia y la atribución pueden leerse como los primeros bloques de construcción para ese futuro. Si un resumen de IA es efectivamente una nueva forma de distribución, los editores sostienen que debería ir acompañado de derechos más claros, un etiquetado más evidente y una economía más transparente.
Los editores están reaccionando contra los resúmenes de IA porque el problema no es meramente técnico; es estructural. Cuando los resúmenes reducen los clics y hacen que las sesiones terminen antes, el modelo de financiación del periodismo se debilita, y el histórico “rastreo a cambio de tráfico” empieza a parecer obsoleto, especialmente cuando los volúmenes de rastreo superan con creces las referencias que regresan.
En 2026, el debate está pasando de las quejas a la gobernanza. La propuesta de exclusión de la CMA sobre los resúmenes de IA y su plazo de consulta del 25 de febrero de 2026, el borrador de ley de la IAB y el auge de las herramientas para bloquear rastreadores apuntan todos en la misma dirección: los editores quieren un control real sobre cómo se utiliza su trabajo en los resúmenes generados por IA, además de mecanismos de transparencia y compensación lo bastante sólidos como para mantener la web abierta como algo que valga la pena producir.