Periodismo, tráfico y subsistencia de los medios en tiempos de IA: ¿cómo está impactando en las publicaciones online el uso de ChatGPT?

Un repaso por el estado de situación y algunas hipótesis de cara al futuro.1

Hace unas semanas vi el documental dirigido por Marshall Curr con motivo del aniversario número 100 de la revista The New Yorker y que resulta en una dosis inesperada de optimismo para nuestra profesión en un contexto cada vez más complejo, pero que a su vez, es un poco descorazonador para cualquier periodista que ame su trabajo. En tiempos de creciente automatización y sistemática bajada de calidad debido a la basura sintética que monopoliza Internet (AIslop), y cuando parecemos haber olvidado la importancia de los procesos más artesanales que demandan lentitud, contemplación y debate, es interesante observar el backstage de esta publicación que hoy subsiste gracias a haberse aggiornado y diversificado. 

El documental da cuenta que todavía es posible que una publicación prestigiosa siga funcionando con altísimos estándares de calidad, pero también no hace más que subrayar lo evidente de algunas realidades para el periodismo en la actualidad. Para empezar ya sabemos que el “print” no es lo que era, ni allí ni aquí: según el Wall Street Journal la circulación de periódicos impresos en Estados Unidos ha disminuido un 70% con respecto a los niveles de 2005. Por acá si hace una década la tirada de fin de semana para algunos de los principales diarios como La Nación era de 500.000 ejemplares en fin de semana, hoy es al menos la mitad -y buena suerte con conseguir ejemplares en los cada vez más transformados kioscos de diarios en la ciudad, que venden de todo menos diarios. Por algo la legendaria editora Tina Brown (directora del The New Yorker de 1992 a 1998 y con anterioridad de Vanity Fair) dijo en una entrevista reciente: “Las revistas tal como las conocíamos están muertas”. 

El panorama online -que es el que nos compete específicamente en este análisis- no está mucho mejor: las visitas a los sitios web de 100 de los periódicos más importantes han disminuido más del 40% en los últimos cuatro años según el informe anual publicado por la Escuela de Periodismo Medill de la Universidad Northwestern. ¿El principal culpable señalado para este achicamiento en el tráfico y crisis de los contenidos? La inteligencia artificial. Sin embargo, la problemática es multicausal, y señala varias cuestiones que van desde el cambio en los hábitos y dinámicas de consumo de información -primero con las redes sociales y ahora con la IA-, la decadencia del modelo de negocios de los grandes medios, y la consiguiente precarización y desfinanciamiento, la crisis de confianza en el periodismo, el crecimiento de la llamada passion economy y del “prosumer” (consumidor y productor), y el influencing y toda la industria detrás -que confunde “contenidos” con producción e investigación periodística.

¿Cuáles son las principales problemáticas que estas tecnologías presentan para el panorama de medios actual, qué acciones están tomando algunos de los big players y cómo sentarán precedente en la manera en que consumimos noticias? ¿Qué significa esto para los medianos y pequeños intermediarios?, pero sobre todo, ¿qué tensiones y preguntas despierta para los profesionales del periodismo? Las respuestas a estos interrogantes podrían ser indicios para pensar cómo podríamos (re)configurar nuestra labor en tiempos de IA.

Estado de situación: nuevos hábitos para nuevas tecnologías

Para entender por qué hoy hay menos tráfico online en sitios de noticias hay que empezar por mirar cómo se busca información en general. Ya desde hace unos años se viene observando que los jóvenes abandonaron las búsquedas tradicionales en Google y usan TikTok, Instagram y Pinterest para esos fines (redes sociales y sitios que no están ni pensados ni preparados para soportar grandes extensiones de texto o como buscadores de información, mucho menos de noticias). A su vez, un 7% de los encuestados para el Reporte de Noticias Digitales (2025) de Reuters afirma que usa herramientas basadas en IA para informarse cada semana. Entre los menores de 25 años, esa cifra se eleva al 15%, aunque mi sensación es que esta cifra está subrepresentada. Finalmente, el confiable Pew Research Center publicó un informe basado en la actividad online de 900 adultos estadounidenses muy citado, explicando que los usuarios de Google que se encuentran con un resumen de IA tienen menos probabilidades de hacer clic en enlaces a otros sitios web. Para ser precisos, sólo el 1% de las búsquedas en Google resultaron en que los usuarios hicieran clic en el enlace del resumen de IA.

Algo que los grandes diarios -pero también editoriales y creadores online- están comenzando a problematizar tiene que ver con la forma en que el creciente uso de Chat GPT (y otros motores similares como Claude, Grok, Perplexity) está afectando las dinámicas de búsqueda en la web y la navegación de sitios de noticias, desde nuevos desarrollos que integran IA en los buscadores, a los buscadores conversacionales. La función resumen de IA de Google (Overview), introducida en 2024 y que sustituyó al formato de «10 enlaces azules» que convirtió a Google en el gatekeeper principal de tráfico, termina con el flujo de tráfico casi por completo: desde que Google lanzó Overviews la proporción de búsquedas de noticias que no generan ningún clic en los sitios web de los editores ha aumentado del 56% a casi el 69% según Quartz. Así, el tráfico orgánico a los sitios de noticias se desplomó al tiempo que los medios que basan sus modelos de negocio en los ingresos publicitarios y la interacción con los lectores entraban en pánico. Por último el recién salido del horno Digital New Review 2026 de Reuters predice que en los próximos tres años se prevé una disminución sustancial del tráfico procedente de los motores de búsqueda (no tanto como “cero Google”, pero sí superior al 40%). 

Hasta el sitio Reddit se vió en problemas, ya que si bien había firmado acuerdos de licencia por el valor de 203 millones de dólares a principios de 2024, ya está buscando acuerdos más lucrativos con Google y OpenAI para alcanzar “precios dinámicos” lo que le permitiría cobrar más a medida que sus datos se vuelven vitales para las respuestas de IA -una punta a tener en cuenta a futuro en lo que serán las negociaciones de los grandes medios. Pero no se trata solo de OpenAI sino de un problema general del Big Tech trabajando hoy con LLMs: según el análisis de Cloudflare (empresa que gestiona el tráfico de Internet), Claude de Anthropic realizó casi 71.000 solicitudes de página por cada referencia que envió a los editores. La proporción de OpenAI fue de 1600 solicitudes por referencia, mientras que Perplexity registró una proporción de más de 200 a 1. Comparemos esta proporción con motores de búsqueda tradicionales como Google, que mantenían una de aproximadamente 9 a 1, una relación que, a pesar de las quejas que siempre existieron, hoy los editores deben estar extrañando mucho. «El acuerdo que hizo Google para tomar contenido a cambio de enviarte tráfico ya no tiene sentido», dijo el CEO de Cloudflare, Matthew Prince el año pasado.

Otros datos interesante que revela el informe de Pew son que a más palabras contiene la búsqueda más probable es que la IA devuelva un resumen (si son menos no se activa el modo), y también repara en el “tono” de la pregunta para activar el modo resumen (preguntas más directas como le haríamos a un asistente). ¿Algunas pistas para hackear este modo? O quizás, como hemos hecho muchos, tal vez vale la pena considerar desactivarlo. Que la pulsión a profundizar en las fuentes decrece con el uso de esta modalidad no es sorpresa, sobre todo teniendo en cuenta la ubicuidad y penetración que estas tecnologías están teniendo en nuestros hábitos de lectura y escritura -y de análisis e interpretación de la realidad. Por eso es tan importante tomar conciencia de lo escuetos que son estos resúmenes con las referencias (que además concentran links de tres sitios: Wikipedia, YouTube y Reddit). A la información sesgada, los errores y alucinaciones de los LLMs, hay que sumarle la falta de contexto y elaboración ya que un porcentaje mínimo de usuarios va a ir a ver las fuentes, y la parcialidad hacia estas. Todo apunta a que esta no sería la estrategia más recomendable para informarnos, si buscamos información fiable y de calidad.

La noticia del bajón de tráfico fue reportada sobre todo en medios de afuera (Wired, BBC, Media404, Verge, CNN, etc), pero tuvo poco eco localmente. ¿Acaso en LATAM usamos menos esta función de Google, o directamente el ChatGPT y símiles para buscar información? No exactamente. “A nosotros el lanzamiento de ChatGPT no nos afectó para nada la salud del negocio y el tráfico. Donde sí se ve un pequeño impacto es con el lanzamiento del modo IA de Google, pero no es por el uso del feature, que no es lo mismo que el resumen de Gemini o Google, sino que es un chat (buscador) conversacional”, me comentaba Santiago Nasra, Jefe de datos de lanacion.com, cuando lo consulté para entender qué sucedía localmente en grandes medios y cómo estaban problematizando esto. Nasra puntualiza que el impacto es menor y además mediado por un algoritmo de Google Alfa, que realizó un cambio en Google Discover, haciendo muy evidente la avanzada sobre el contenido de índole estrictamente periodística. “Lo que hizo es mostrarnos un poco menos, ya que que saca la exclusividad que tenían los medios de comunicación en el producto de Google Discover (que era solo links de medios), y ahora lo empieza a mezclar con posteos de redes sociales, posteos de influencers, creadores de contenido, yendo para el lado de mostrarle contenido de todo tipo a la gente y no solo noticias”. Pero entonces, ¿qué es contenido más genérico y qué es contenido periodístico? Las líneas se desdibujan.

¿Esto significa que estos nuevos modos/cambios no afectan tanto a medios locales? Tampoco. Una posible explicación a la que llegamos con Nasra tiene que ver con el poder adquisitivo del ciudadano promedio y el acceso a la tecnología en el Norte y el Sur, ya que aquí el consumo de teléfonos con Android es mucho más ubicuo que en el Norte donde se usa el iPhone, que opera/depende mucho más de la función Search que de Discover, y por ende puede verse más afectado por los cambios en las dinámicas de búsqueda directa en Google y el tráfico con los cambios sobre esta función por el Overview.

¿Un mundo post-Google?

Pero volviendo al panorama de medios global, sobre todo los reportes en EEUU y Europa, ya se habla cada vez con más fuerza de un escenario post-Google (y hasta SEO porque la IA se quedará con las sobras publicitarias por las que se peleaban las empresas de medios). Una nota titulada precisamente “Dentro del Apocalipsis de tráfico de los medios” de Septiembre del 2025, que comenta sobre los despidos masivos en medios grandes desde Business Insider a Bustle, agrega otra variable que tiene que ver con políticas del Big Tech que perjudica a los medios: el tráfico que antes llegaba por las redes sociales también ha caído, ya que figuras como Elon Musk han restringido los enlaces a noticias. “Tuiteás un enlace a un artículo y simplemente desaparece”. Más malas noticias para los periodistas, escritores, intelectuales o creadores que continuábamos en redes como X muy a nuestro pesar, en parte para exponer nuestro trabajo. Los perjudicados no son solo los grandes medios, también los sitios medianos y pequeños que obtienen ingresos de las recomendaciones de productos y las suscripciones, vulnerando la premisa que había contribuido al éxito y la utopía misma de Internet en los primeros tiempos: poder llegar a audiencias lejanas.

El informe de 2026 de Reuters también parece confirmar esta tendencia con drásticas caídas del tráfico desde Facebook (-43%) y X/Twitter (-46%) en los últimos tres años, y con directivos pensando “podar los recursos destinados a la optimización de contenidos SEO para Google (-25) y a las redes sociales tradicionales como Facebook (-23) y X (-52)”. Para los que nos resistimos desde siempre a optimizar por SEO, tal vez esto no sea tan malo.

Como si esto no fuera suficiente también se viene reportando sobre cómo muchas de estas empresas tecnológicas entrenan chatbots con enormes cantidades de artículos y material robado, con denuncias por copyright como la que la organización News Media Alliance (que representa a más de 2,200 medios tanto digitales como impresos) encabezó contra Google el año pasado por robar su contenido, y como la demanda que también hizo el grupo Condé Nast, The Guardian y otros contra Cohere. El tema de la constante tensión entre creadores y empresas tech en el uso y comercialización de la propiedad intelectual en esta era merecería toda otra nota aparte, pero baste decir que es una cuestión que habrá que seguir con atención en relación a los antecedentes legales, técnicos y culturales que sienta a futuro.

Uno de cada cinco encuestados (20%) por Reuters prevé sustanciales ingresos por estos acuerdos con empresas de IA, sobre todo en medios de alta gama. Pero la mitad estima aportes menores (49%) y otra quinta parte (compuesta en su mayoría por publicaciones locales, emisoras públicas y empresas de países pequeños) no espera obtener nada, mostrando que la avanzada del Big Tech deja desprotegidos principalmente a los players chicos y medianos.

En otra voltereta de lo que hoy ya se conoce como AISlop economy (la industria detrás de la producción de contenido sintético basura en la web), hace poco también trascendieron denuncias de la existencia de sitios de noticias generados por IA que difunden contenido viral a partir de URL olvidadas: una nueva generación de granjas de contenido que aprovecha la IA para generar clickbait, y que además está recibiendo una ayudita de Google. “Los sitios de noticias con IA amenazan la inversión en periodismo ya que pueden generar versiones de reportajes originales casi al instante y captar valioso tráfico web. Algunos sitios se benefician de Google Discover, donde encontré muchos de ellos en mi feed”, explica el periodista Ben Paviour en una nota de NiemalLab donde detalla cómo funcionan estas granjas. Según el autor un estudio publicado por NewsGuard en mayo contabilizó casi 1300 sitios de noticias generados por IA en 16 idiomas, algunos son locales, otros lo hacen bajo identidades robadas a personas reales. «Si lográs aparecer en Google Discover o Google Noticias, has dado en el clavo», afirmó Matt Zimmerman, inventor de una herramienta de contenido llamada Zimmwriter, dirigida a profesionales del marketing.

Es decir, que no solo la IA está afectando el tráfico y la búsqueda de información en la web, también está canibalizando de forma sistemática -y bastante lucrativa-, los contenidos de calidad que seres humanos producimos como empleados -no siempre bien pagos- para generar sitios de noticias espurios; además de servir como fuente de contenidos para entrenamiento de modelos que luego dejarán en offside a los propios medios de los que robó, ya que el contenido de fuentes de alta autoridad, como diarios y revistas, resulta más atractivo para las empresas de IA que las publicaciones en blogs y redes sociales. Claramente no es negocio para los medios, pero tampoco para los profesionales y creadores. 

Una posible estrategia: valor humano, diversificación y compromiso con la realidad 

Con este full circle volvemos al tema del tráfico y el futuro del modelo de negocios. Mientras que las empresas de IA relativizan lo que informes exhaustivos ya muestran (como este que dice que AI Overviews ha reducido el tráfico a sitios web en más de un 34 %), los grandes medios se preparan para un posible escenario de «Google Zero». Si miramos algunas de las estrategias tenemos dos caminos: acciones legales, ya hay al menos una decena de demandas que involucran a más de 20 editoriales, o hacer tratos para resumir artículos y capacitar en contenido editorial. Medios como The Atlantic recurren a ambas. Pero como señala el periodista Alex Reisner, el problema surge en cuanto a la naturaleza de esos acuerdos ya que no existe un precio estándar para la capacitación de un LLM en un libro o un artículo, además del tremendo desequilibrio en la mesa de negociaciones, cuando las tecnológicas se han acostumbrada a tomar la información -inclusive tras el paywall– sin pagar.

Lo que es más, no existe una forma infalible de evitar que las empresas de IA hagan scrapping de los sitios web de noticias (el Protocolo de Exclusión de Robots, el método estándar de exclusión, se elude fácilmente). La opacidad es algo que el Big Tech ha practicado desde siempre, ahora también con IA manteniendo sus datos de entrenamiento en secreto, por lo que no hay método certero para que los editores verifiquen qué chatbots están resumiendo sus artículos. Por ello es que deberían existir leyes que exijan la divulgación de los datos de entrenamiento con derechos de autor.

En este contexto los escritores son el último eslabón de la cadena, y quizás es por eso que tantos están migrando su trabajo a espacios como Substack (con sus propios newsletters), podcasts u otros formatos representados en la economía de los creadores, aunque no todo el periodismo puede o debe traducirse a este modelo. Empiezan a vislumbrarse algunas estrategias que parecieran ser clave en un momento en que más de la mitad de los artículos en Internet están escritos con AI.. y en que hasta el tráfico humano está siendo superado por el de los robots. Así se están discutiendo nuevas formas de atribuir y administrar propiedad intelectual como artículos a sus creadores, uno de ellos sin abrir muchas puertas temáticas más es el Really Simple Licensing (RSL), que exigiría a los rastreadores de IA presentar tokens de licencia válidos antes de acceder al contenido y cuenta con el respaldo de empresas como Reddit, Yahoo y Medium.

Pero al final del día en un mundo cada vez más automático lo que prevalecerá es nada más y nada menos que lo humano: lo irremplazable del punto de vista personal y único del cronista, la resonancia emocional del material y la posibilidad de ayudar al lector a contextualizar. Una nota o pieza de comunicación bien producida nos ayuda a construir sentido en el mundo y formar opinión, pero también a ubicarla en un marco más grande que nosotros mismos. Y por eso no me sorprendió que Narsa me comentara que el “core” del negocio de suscripciones en La Nación es el contenido exclusivo: artículos escritos por autores del diario como Hugo Alconada Mon, Carlos Pagni, Guillermo Olivetto, etc, que además son los que más conversión logran (convirtiendo al usuario en cliente). “Es un contrato tácito de lectura que tenemos con el lector. La gente no se suscribe por commodity, se suscribe por contenido que no encuentra en otro lado, principalmente en nuestro caso de análisis político y económico. Y ese negocio está súper sano y continúa creciendo.”

Podríamos concluir que una tesis fuerte dentro del rubro viene siendo entonces que la gente hace click en exclusivas pero también en todo lo que tenga una voz distintiva, en coberturas periodísticas de calidad vs fake news, y por último, en nuevos formatos.  “La IA hará que muchos tipos de historias sean redundantes, pero no puede competir con un gran columnista con una voz potente y un público fiel que quiere escuchar directamente a su escritor favorito”, dice Will Welch, director editorial global de GQ, que también habla de construir una relación directa con los lectores. En esta línea los newsletters, los podcasts, los contenidos de video y las redes sociales son todos recursos que los grandes medios desde el New Yorker o medios locales como Cenital están aprovechando y explotando. A su vez, la icónica Tina Brown habla de que la expansión lateral como la única forma en que las revistas pueden sobrevivir y cita a The Atlantic: “Se ha reinventado por completo como revista, al tener un enfoque multiplataforma, una plataforma digital muy sólida, conferencias y podcasts”. Algo que también observamos localmente con ejemplos de medios independientes como Cenital, DiarioAr, FiloNews, LATFEM y más, que no son solo sitios de noticias. Así lo confirma también el reporte citado de Reuters:

  • “Los editores dicen que será importante poner más énfasis en las investigaciones originales y en las coberturas sobre el terreno (91 puntos porcentuales de diferencia entre las opciones “más” y “menos”), análisis contextual y explicaciones (+82) y las historias humanas (+72). También creen que será importante invertir más en video (+79) y en formatos de audio (+71) como el podcast, pero un poco menos en la elaboración de textos.(…) En términos estratégicos, YouTube será un foco principal de atención (puntuación neta de +74), lo que supone un incremento notable con respecto al año pasado. También aparecen entre las prioridades otras redes audiovisuales y nuevas audiencias en plataformas de boletines como Substack (+8)” 

“Hay un foco en las construcciones de comunidades más cercanas como una identidad también del medio más afín a su propia audiencia, más de nicho (long tail), ya no existe el foco en los medios masivos (más allá de la existencia de medios generalistas y tradicionales), los públicos se fueron haciendo cada vez más chiquitos y son comunidades. No hay un modelo lo que sí hay es una crisis y cada uno le va buscando un poco la vuelta de acuerdo a su propio perfil, audiencia, estilo. Me parece que definitivamente va por el lado de las comunidades, pequeños nichos, vínculos más cercanos, más de ida y vuelta”, me comenta Carolina Martinez Elebi, Investigadora, periodista especializada en tecnología y autora del newsletter DHyTecno, que pone como ejemplos para seguir a Platformer de Casey Newton, o los vernáculos El gato y la caja y Gelatina.

Aunque hay consenso sobre tener una estrategia diversificada que evite depender de plataformas externas, esto no es algo tan fácil de lograr si sos una marca emergente, a su vez que el periodismo de calidad sale caro, y sumado al avance de la IA que también se está metiendo en nuestras casillas de correo, resumiendo mails y reduciendo el tráfico de newsletters.

Para seguir sosteniendo medios y periodismo se necesita gente interesada en las noticias, por eso las búsquedas siguen siendo un canal importantísimo a cuidar. Es posible que en la medida en que la curva de burnout con el AI crezca y el rechazo a los contenidos sintéticos también, haya más espacio para lo humano y artesanal, o incluso nuevas tecnologías para contrarrestar las existentes (productos que permitan filtrar los resultados de IA o que no tengan un modelo de negocio 100% basado en anuncios). Pero lo cierto es que la batalla es tanto técnica como cultural: en la medida en que trazar una línea entre lo real y lo falso no sea especialmente rentable a gran escala y, por lo tanto, una prioridad para las empresas y usuarios. 

Habrá que seguir los avances con una dosis de escepticismo y vigilancia, empujar la creatividad hacia lugares con otros tiempos y procesos y recordar que al final del día si la web se vuelve un lugar inhabitable o de bajísima calidad, también lo sufrirán las empresas de IA ya que sus chatbots y buscadores dependen en gran medida de esos contenidos que están llevando a la extinción. Como un perro que muerde su propia cola.

  1. Este reporte fue realizado por Laura Marajofsky para la Diplomatura en Inteligencia Artificial de UNSAM. ↩︎

0 comentarios

Enviar un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Filtros

Telegram Sumate a nuestro canal de Telegram