La web está entrando en una era en la que la información está cada vez más mediada por “capas de respuesta” y la generación de contenido a escala industrial. Eso hace tentador publicar más, más rápido, especialmente con IA generativa. Pero el volumen no es lo mismo que el valor, y los incentivos que antes recompensaban el reportaje original se están debilitando.
Para mantener útil la web abierta, y para que el periodismo, la investigación y la publicación experta sigan siendo económicamente viables, necesitamos favorecer el reportaje original por encima del contenido masivo de IA. No como una preferencia moral, sino como una estrategia práctica para la calidad, la confianza y la sostenibilidad a largo plazo.
1) El contenido masivo de IA cambia la oferta, pero no la señal
La IA generativa ha convertido la producción de contenido en una actividad de coste marginal casi cero. Ese cambio ya es mainstream: Salesforce informó en feb 2026 que aproximadamente el 75% de los profesionales de marketing están recurriendo a la IA para la producción de contenido, acelerando un ecosistema de contenido ya saturado.
Cuando cualquiera puede publicar resúmenes “lo bastante buenos” a escala, el diferenciador pasa a ser lo que la IA no puede sintetizar fácilmente sin una fuente: observación de primera mano, datos únicos, documentos, entrevistas, experimentos y responsabilidad dentro del dominio. En otras palabras, reportaje original.
Por eso “más contenido” ya no es, por sí solo, una estrategia de crecimiento. En una inundación de explicaciones plantilla y listículos parafraseados, el activo escaso es la procedencia: trabajo que puede rastrearse hasta personas reales, métodos reales y evidencia verificable.
2) Google está devaluando explícitamente las páginas generativas de bajo esfuerzo
Las plataformas están reaccionando a la explosión de páginas escaladas y de bajo esfuerzo. Las actualizaciones Core y Spam de Google de marzo de 2024 apuntaron al contenido “inútil/no original” producido a escala, con el objetivo declarado de reducir los resultados poco útiles en alrededor de un 40%, un movimiento interpretado ampliamente como un retroceso frente al templating masivo y las granjas de IA reescrita (Search Engine Land, mar 2024).
Esa dirección se endureció en enero de 2025, cuando Google actualizó sus Search Quality Rater Guidelines para indicar a los evaluadores que asignen la calificación “más baja” a páginas que usan IA generativa para producir contenido principal poco original y de bajo esfuerzo. La guía señala el “contenido parafraseado” y el uso de IA generativa con “poco o ningún esfuerzo” y “poca o ninguna originalidad”, reforzando que remezclar el trabajo de otros no es lo que los sistemas de calidad pretenden recompensar (PDF de directrices de Google, ene 2025).
Para los editores, la implicación es directa: si la IA se usa para inflar la producción en lugar de profundizar el reporteo, puede convertirse en un lastre de posicionamiento. El reportaje original no es solo una ventaja de marca; cada vez se alinea más con lo que los sistemas de calidad de búsqueda intentan sacar a la superficie.
3) Las capas de respuesta reducen los clics, así que solo el trabajo distintivo gana demanda
Incluso cuando el contenido posiciona, las interfaces mediadas por IA pueden reducir el tráfico posterior. Un análisis basado en Pew citado por eMarketer (jul 2025, examinando SERPs de mar 2025) encontró que los AI Overviews se asociaban con aproximadamente la mitad del clic hacia sitios externos: 8% con AI Overview frente a 15% sin él.
Mediciones separadas apuntan en la misma dirección. Datos de TollBit citados ampliamente en 2025 informaron tasas de referencia de chatbots de IA alrededor del 0,37%, aproximadamente un 95,7% menos que las referencias de la búsqueda tradicional de Google (News/Media Alliance, feb 2025). El resumen de Search Engine Land del “State of the Bots” de TollBit (Q2 2025) lo planteó de forma tajante: Google envía a los editores 831× más visitantes que los sistemas de IA.
Esto crea una crisis de incentivos: si los lectores obtienen cada vez más “la respuesta” sin visitar la fuente, entonces el contenido genérico y fácilmente resumible se vuelve económicamente frágil. Lo que aún logra un clic, una suscripción, una cita o una licencia tiende a ser trabajo original, reportajes exclusivos, conjuntos de datos propietarios, herramientas y análisis que no son intercambiables.
4) El caso económico: “saltarse la fuente” amenaza los presupuestos de reporteo
Los editores no están imaginando la presión; tanto el sentir del sector como la investigación la están documentando. La investigación de Digiday del Q4 2025 encontró que profesionales de editores citan las disminuciones de tráfico impulsadas por IA entre sus mayores desafíos, haciendo referencia explícita al hallazgo de TollBit sobre referencias de chatbots dramáticamente más bajas.
El trabajo académico también se está alineando con estas preocupaciones. Un artículo de dic 2025 informó un “declive consistente y moderado del tráfico hacia editores de noticias a partir de agosto de 2024” tras la introducción de funciones de GenAI, lo que sugiere un cambio estructural en los patrones de descubrimiento más que una fluctuación temporal (arXiv:2512.24968).
Y el encuadre legal se está volviendo contundente. En dic 2025, la demanda del Chicago Tribune contra Perplexity argumentó que el sistema de IA distribuye el reportaje del Tribune para que los lectores puedan evitar los sitios del Tribune, recortando tráfico e ingresos publicitarios (Axios, dic 2025). Cuando la cadena de valor se tensiona, la respuesta racional es invertir en trabajo que no pueda replicarse barato, reportaje original, en lugar de competir por publicar texto comoditizado.
5) Políticas y tribunales convergen en elección, citación y compensación
Los reguladores están empezando a articular protecciones para los editores en el contexto de los resúmenes de IA. La propuesta del regulador/competencia del Reino Unido reportada “el mes pasado” por AP impulsa “elección significativa”, transparencia, citación adecuada y opciones para que los editores se excluyan de los resúmenes de IA, conectando explícitamente los resúmenes de IA con la reducción de tráfico hacia editores (AP).
Mientras tanto, los tribunales están sopesando activamente cómo los sistemas de IA pueden ingerir y reproducir periodismo. En mar 2025, un juez federal permitió que siguiera adelante la demanda de copyright de The New York Times/OpenAI, un hito procesal que subraya lo poco asentadas que siguen las reglas (AP, mar 2025).
Experimentos de la industria están emergiendo junto con el litigio. Axios informó en ago 2025 que Perplexity propuso un enfoque de compensación a editores, incluyendo afirmaciones de reparto de ingresos y un fondo citado de 42,5M$ con referencias a un “corte del 80%” para un producto de suscripción (Axios, ago 2025). Sea cual sea el modelo, la dirección es clara: el mercado está buscando mecanismos que mantengan económicamente viable el reportaje original en un mundo de respuestas por IA.
6) La transparencia es ahora una característica competitiva, no un “nice-to-have”
Un riesgo del contenido masivo de IA es que audiencias y plataformas no puedan distinguir fácilmente qué está realmente reportado frente a lo sintetizado. Una auditoría a gran escala (verano 2025) que examinó 186K artículos en alrededor de 1,5K periódicos de EE. UU. encontró que el uso de IA es “generalizado, irregular y rara vez divulgado”, señalando una brecha de transparencia creciente (arXiv:2510.18774).
Muchos proponen la detección de texto de IA como remedio, pero la evidencia técnica es sobria. Una investigación de nov 2025 encontró que los detectores de texto de IA pueden fallar “catastróficamente” bajo parafraseo iterativo (arXiv:2511.00416), lo que significa que los malos actores a menudo pueden evadir una vigilancia simple mientras siguen produciendo salida no original.
Por eso recompensar la procedencia supera intentar castigar la síntesis. Etiquetado claro, estándares editoriales, responsabilidad del autor, enlaces a fuentes, documentos primarios y metodologías divulgadas son formas prácticas de señalar reportaje original, sin depender de herramientas de detección poco fiables.
7) La web está siendo consumida por bots, así que las entradas verificadas importan más
El ecosistema de IA no solo genera contenido; también consume la web a escala creciente. TechRadar (finales de 2025), citando a TollBit, describió que la actividad de bots de IA se aceleró desde aproximadamente 1 visita de bot de IA por cada 200 visitas humanas a principios de 2025 hasta cerca de 1 por cada 31 en los meses finales de 2025.
A medida que los sistemas de IA ingieren más de la web abierta, el valor de las entradas únicas aumenta. Si la web queda dominada por texto reprocesado, los modelos de IA y los usuarios por igual se enfrentan a un problema de “copia de una copia”: una cadena de suministro informativa donde los errores, las omisiones y las generalidades insípidas se acumulan.
El reportaje original, la verdad sobre el terreno recogida del mundo, actúa como oxígeno fresco para el ecosistema informativo. Reduce dinámicas de colapso del modelo, apoya mejores resúmenes y ofrece a las audiencias algo que merece la pena buscar más allá de lo que una síntesis genérica puede proporcionar.
8) Formas prácticas de favorecer el reportaje original (incluso cuando usas IA)
Favorecer el reportaje original no significa prohibir la IA. Significa usar la IA para amplificar el reporteo en lugar de reemplazarlo. Por ejemplo: permitir que la IA ayude con transcripción, traducción, limpieza de datos o estructuración de borradores, mientras que los hechos centrales provienen de entrevistas, documentos, trabajo de campo, experimentos o análisis propietarios.
Segundo, diseña el contenido para que el “contenido principal” sea inconfundiblemente original. Publica materiales primarios (documentos, conjuntos de datos, registros FOIA, código, fotos, cronologías anotadas), explica métodos e incluye detalles específicos verificables que no puedan producirse solo mediante paráfrasis. Esto se alinea con la postura de Google contra la parafraseada generativa de bajo esfuerzo y ayuda a que las audiencias confíen en lo que están leyendo (directrices para evaluadores de Google, ene 2025).
Tercero, empaqueta el reporteo en activos duraderos que las capas de respuesta no puedan reemplazar por completo: bases de datos, calculadoras, herramientas de mapas, newsletters con notas de fuentes, experiencia especializada por área y series de investigación continuas. A medida que la búsqueda con IA se expande internacionalmente y por tema, una investigación de feb 2026 describe la continua escalada de la exposición de AI Overview; los editores deberían asumir que la interfaz seguirá cambiando y construir valor que sobreviva a los cambios de UI (arXiv:2602.13415).
Favorecer el reportaje original por encima del contenido masivo de IA no es nostalgia por una web más antigua. Es adaptación a una nueva, donde los resúmenes abundan pero las entradas confiables y diferenciadas son escasas y cada vez más costosas de producir.
Con los clics disminuyendo en resultados mediados por IA (eMarketer/Pew, jul 2025), las referencias de chatbots cerca de cero (TollBit vía News/Media Alliance, feb 2025) y el tráfico total de sitios cayendo con el tiempo (Axios citando Similarweb, ene 2026), el foso más sólido es el trabajo que no puede comoditizarse. El futuro pertenece a los editores que hacen que el reporteo real sea evidente, verificable y digno de pago, y que tratan la IA como una herramienta al servicio de la originalidad, no como una fábrica de imitación.