Vuelta a la casilla de salida: la IA enfrenta a los medios a su enésimo desafío para sobrevivir en la era digital

Hasta hace poco, cuando alguien quería buscar información sobre un asunto de actualidad —pongamos el ataque con drones que acaba de sufrir Polonia— escribía en Google algo parecido a esto: “Polonia, ataque, drones”. Inmediatamente, el buscador, propiedad de Alphabet —la cuarta empresa más valiosa del mundo en estos momentos, detrás de Apple, Nvidia y Microsoft, con una estimación bursátil que ronda los 2,8 billones de dólares— le devolvía varios enlaces a medios de comunicación explicando lo que había ocurrido.

Así es como, de manera tradicional, llegaba la mayor parte de las visitas a los medios (además de a través de las redes sociales, aunque en ellas no sea como resultado de búsquedas conscientes decididas por los lectores). Un tráfico del que depende lo sustancial de los ingresos de la mayoría, porque la publicidad se paga, básicamente, en función del volumen de lectores.

Cualquiera que aún utilice Google sabe que eso ha cambiado, porque el buscador ahora ofrece una respuesta previamente masticada por sus modelos de inteligencia artificial, lo que reduce al mínimo los enlaces a los medios, si es que aparecen. Los lectores más desprevenidos pueden acabar creyendo que quien les suministra los datos (es decir, lo que ha pasado en Polonia) es la propia Google. Nada más lejos de la realidad: es una IA que procesa lo que los medios están contando (y que sí habrán contrastado la información y desplazado informadores a todos los lugares de interés).

No es la primera vez que los medios se ven obligados a hacer frente a un evento de extinción. El primero, y más importante, tuvo lugar a finales de los años noventa como consecuencia de la generalización de Internet y la decisión de ofrecer gratis lo que hasta ese momento —en papel— era de pago. La publicidad cayó en picado, a medida que Google se hizo con la mayor parte. De manera que, cuando llegó la gran recesión, a partir del año 2008, empezaron los cierres y los despidos.

Desde entonces, la mayoría de los medios han ido ajustando su cuenta de resultados a los ingresos derivados, sobre todo, de las visitas. Y las visitas dependían —y aún lo hacen— de Google y, en menor medida, de las redes sociales.

Un cambio acelerado

Todo eso está cambiando. Y muy deprisa. Los datos que se están recopilando son alarmantes, pero no se convierten en titulares. Cualquier otro sector estratégico sometido a semejante estrés sería objeto inmediato de atención institucional y mediática en busca de soluciones. Y los medios de comunicación lo son, como parte esencial del proceso democrático.

El director ejecutivo del Financial Times reveló este verano que había visto una disminución “bastante repentina y sostenida” del 25% al 30% en el tráfico a sus artículos de los lectores que llegaban a través de los motores de búsqueda de Internet.

Hace pocos días, el propietario del Daily Mail expuso en su presentación a la consulta de la Autoridad de Competencia y Mercados sobre los servicios de búsqueda de Google que AI Overviews (el modelo de presentación de resúmenes informativos de Google) había impulsado una caída en el tráfico de clics a sus sitios de hasta un 89%. Una cifra en la que se reconocen otros medios cuya publicidad —y supervivencia— depende, sobre todo, de los clics que les llegan de los buscadores y que cada vez son menos: una encuesta realizada durante un mes a partir de 69.000 búsquedas de Google, llevada a cabo por el Pew Research Center (un grupo de expertos estadounidense), encontró que los usuarios solo hicieron clic en un enlace bajo un resumen de IA una vez cada 100 veces.

En España, hace pocos días se visibilizó la desesperación del director de El Español, Pedro J. Ramírez, al comprobar cómo se habían derrumbado hasta un 80% las visitas a su medio, hasta el punto de sugerir que se trataba de una conspiración impulsada por Pedro Sánchez.

Le respondió el editor de Jot Down, Ángel L. Fernández, en un artículo en el que, además de ironizar con las quejas del que fuera fundador de El Mundo, describía muy bien el desafío:

“El problema es sistémico: un ecosistema mediático que depende de algoritmos arbitrarios, de plataformas hegemónicas, de infraestructuras controladas por oligopolios tecnológicos, y de un reparto institucional que margina a quienes no forman parte del club de los grandes. Por eso, más que convertir la historia en un episodio heroico de resistencia personal, quizá deberíamos abrir un debate colectivo: ¿cómo garantizamos la diversidad mediática en un entorno donde Google, Meta, Microsoft y los diferentes gobiernos —nacionales, regionales y locales— tienen la sartén por el mango? ¿Cómo defendemos no solo a El Español, sino también a Jot Down, a Menéame, y en general a los digitales que defendemos el pluralismo y no dependemos de un político de turno?”.

La respuesta no está en denunciar cada caso como si fuera un Watergate particular, sino en reconocer que el sistema en su conjunto está roto. Y que solo si nos reconocemos en la fragilidad compartida podremos aspirar a cambiar algo”.

La gente ajena a los medios no lo sabe, pero durante dos décadas, el SEO (Search Engine Optimization) fue uno de los puntos cardinales de toda estrategia mediática digital. “Desde titulares diseñados para captar clics hasta recetas redactadas para agradar al algoritmo de Google, el posicionamiento marcó cómo —y por qué— se publicaba en la web”, explica Miquel Pellicer, periodista y director de Comunicación Digital de la Universitat Oberta de Catalunya (UOC). “Pero la irrupción de ChatGPT, Gemini y Perplexity ha alterado radicalmente ese paradigma. En lugar de enlaces, los usuarios reciben respuestas. Y en esa respuesta, el medio puede no aparecer nunca”.

En España nadie comparte métricas, pero todos aguantan la respiración mientras buscan cómo sobrevivir al tsunami. Ya se anticipan nuevos despidos: la publicación estadounidense Business Insider tuvo que prescindir de aproximadamente el 21% de su plantilla debido a la caída del tráfico web y la dependencia creciente de noticias generadas o consumidas vía IA.

Estrategia diferente

Ya hay sitios experimentando con una transición del SEO al GEO (optimización para los motores generativos de la IA). Tratan de influir en cómo los grandes modelos de lenguaje de la inteligencia artificial citan, resumen o ignoran el contenido disponible en Internet. Algunos ponen la vista en que ahora la clave es ser citado y enlazado en las respuestas generadas por ChatGPT, Gemini o Perplexity.

Plataformas como YouTube o Wikipedia concentran millones de visitas porque los modelos de IA las reconocen como fuentes de autoridad. Por lo que se refiere a la plataforma de vídeo, es consecuencia de recibir enlaces desde medios confiables, lo que aumenta su “autoridad de dominio”, También es el resultado de que se use mucho para tutoriales, conferencias, entrevistas o charlas académicas. La IA se fija en los sitios con larga trayectoria, muchas citas y alta visibilidad. Wikipedia ofrece todo eso, además de datos estructurados y en abundancia.

En otros casos, medios como The Guardian o Reuters captan tráfico al permitir la indexación de sus contenidos, explica Pellicer. “Para los editores, la lección es clara: en la era del GEO, el reto no es solo optimizar titulares para buscadores, sino construir credibilidad y relevancia suficientes para que la IA considere sus contenidos parte esencial de la respuesta”.

Donde antes la prioridad era atraer clics —lo que llevó a una deriva hacia el clickbait, con titulares forzados o engañosos—, ahora lo que cuenta es tener credibilidad. La IA ya no premia únicamente lo más visto, sino la capacidad de generar contenido que aporte valor y contexto inmediato al usuario. Paradójicamente, al mismo tiempo que los nuevos buscadores basados en inteligencia artificial están dejando de redirigir a los internautas hacia los medios, están poniendo en valor el periodismo, la calidad y la autoridad de los contenidos.

Eso significa estructurar la información de forma clara y verificable, incluyendo datos contrastados y fuentes fiables que aumenten la autoridad. También incorporar respuestas concisas a preguntas frecuentes, así como usar un lenguaje natural y una semántica rica. Expertos en tráfico como Evolution Group coinciden: “La combinación de inteligencia artificial y estrategia editorial no es una tendencia, es la única forma de sostener el crecimiento de los medios”.

El cambio afecta también a las formas de medir el tráfico. El llamado “tráfico directo”, una categoría que, pese a su nombre, no siempre significa que el usuario haya tecleado voluntariamente la dirección de un medio en su navegador, es en realidad un cajón de sastre donde acaba cualquier visita cuyo origen no puede identificarse de manera clara: accesos desde marcadores, correos electrónicos, documentos PDF, apps móviles o navegadores con fuertes restricciones de privacidad, como Safari.

Opacidad

La llegada de la inteligencia artificial añade un nuevo nivel de distorsión al ofrecer respuestas completas sin necesidad de que el usuario visite la web original. Cuando sí derivan tráfico, en muchos casos este aparece registrado como “directo” o incluso “desconocido”. El resultado es una inflación de las cifras internas de los medios y una mayor opacidad en el análisis del comportamiento de la audiencia.

A este fenómeno se suma la fragmentación creciente de las fuentes de acceso. El tráfico social es cada vez más difícil de medir tras los cambios en las APIs de plataformas como Facebook o X, y la progresiva desaparición de las cookies complica la trazabilidad en el tráfico orgánico procedente de los buscadores. En consecuencia, comparar de forma transparente quién tiene más tráfico y quién menos se convierte en una tarea imposible si se utilizan únicamente herramientas internas como Google Analytics.

La pregunta ahora es qué ocurrirá con el tráfico inflado o distorsionado por la IA. La tendencia apunta a que la batalla ya no será tanto por el volumen bruto de páginas vistas como por otros indicadores más sofisticados: el tiempo de atención real de los usuarios, la calidad del público en términos demográficos y de afinidad, o el contexto seguro y verificado donde aparecen los anuncios. Organismos como IAB Europe y la WFA (World Federation of Advertisers) ya impulsan el concepto de “attention economy” como alternativa a las métricas tradicionales.

Al mismo tiempo, no falta quien defiende un replanteamiento total: la supervivencia de las organizaciones de noticias depende ahora de establecer una relación directa y de confianza con los lectores, quienes están llamados a convertirse en su principal soporte económico y reputacional. De pronto, los modelos de suscripción, en los que infoLibre fue pionero en España, son esenciales para los medios.

Muchos ya trabajan en estrategias para incrementar la captación de suscripciones, multiplicar las newsletters y optimizar las apps propias con el objetivo de crear comunidad y fidelizar a los lectores. De repente, mantener la transparencia y la confianza de la audiencia —algo en lo que este diario también ha estado desde el primer minuto— empieza a ser una herramienta importante para poner en valor los contenidos propios frente a resúmenes elaborados por la IA.

La responsabilidad de los lectores

El cambio, que ya está empezando a darse —la caída del tráfico es tan acusada que en poco tiempo muchos medios pueden verse en dificultades—, pone también el foco en la responsabilidad de los lectores que consideran importante acceder a información de calidad, algo que muchos identifican con lo elaborado por organizaciones de noticias concretas. Requieren saber quién les informa y decidir si esos medios son fiables para ellos, ya que la credibilidad pasa a ser el principal activo en medio de la nueva desintermediación que viene con la IA.

El debate está abierto y nadie tiene una respuesta definitiva, pero hay dos claves que parecen estar, al menos, en línea con lo que se conoce como periodismo de calidad. La primera pone el foco en textos que cumplen criterios específicos de claridad, estructura, relevancia y confiabilidad, los que utiliza la IA para interpretar, jerarquizar y seleccionar la información que muestra al usuario.

La IA multiplica los falsos medios que roban la audiencia y los ingresos al periodismo legítimo

Ver más

El énfasis se traslada ahora a responder de manera directa a preguntas concretas, con frases cortas, lenguaje preciso y definiciones claras, evitando ambigüedades o frases que mezclen varios conceptos en una sola oración. La IA tiende a seleccionar información que aporte valor único, no solo duplicados de otras webs, con una estructura clara (introducción breve, desarrollo con datos y conclusión ayudan a que el resumen sea coherente y completo) y un uso preciso de cifras, fechas y referencias a estudios o instituciones para mejorar la autoridad del contenido. Todo lo contrario del clickbait y el periodismo amarillo, que previsiblemente seguirán teniendo su hueco en unas redes sociales cada vez más tóxicas.

La segunda clave depende de los lectores. El nuevo contexto digital exige que sean protagonistas y responsables de la sostenibilidad de los proyectos informativos: quien quiere información fiable y contextualizada debe respaldar activamente aquellos medios en los que confíe, estableciendo un vínculo mucho más fuerte y duradero con periodistas y marcas informativas.

El nuevo proceso de desintermediación que abrieron las redes sociales y que ahora intensifica la IA hará más relevante que nunca saber quién cuenta las cosas, cuál es su trayectoria, su compromiso y sus valores. La confianza no solo será en la marca, sino en la persona y el equipo detrás de cada artículo; los medios deberán explicitar su modelo de funcionamiento y su responsabilidad editorial, mientras que los lectores decidirán quién merece su apoyo y lealtad.

Hasta hace poco, cuando alguien quería buscar información sobre un asunto de actualidad —pongamos el ataque con drones que acaba de sufrir Polonia— escribía en Google algo parecido a esto: “Polonia, ataque, drones”. Inmediatamente, el buscador, propiedad de Alphabet —la cuarta empresa más valiosa del mundo en estos momentos, detrás de Apple, Nvidia y Microsoft, con una estimación bursátil que ronda los 2,8 billones de dólares— le devolvía varios enlaces a medios de comunicación explicando lo que había ocurrido.

Más sobre este tema