La generalización de los buscadores basados en inteligencia artificial (IA) y el intento de estos modelos de utilizar como fuente todo el contenido de Internet no solo representa una amenaza para los medios de comunicación que buscan, elaboran y difunden noticias de manera profesional con arreglo a prácticas contrastadas, sino también para sus usuarios.
El porcentaje de supuestas noticias de actualidad elaboradas por la IA que contienen desinformación, errores o simplemente son falsas no solo no se está reduciendo, sino que, según una monitorización llevada a cabo por NewsGuard, está aumentando.
NewsGuard es una empresa fundada por dos periodistas norteamericanos que se dedica a proporcionar una evaluación de la credibilidad de sitios web de noticias e información, con el fin de ayudar a los usuarios, anunciantes, plataformas tecnológicas o instituciones a distinguir fuentes confiables de aquellas que pueden propagar desinformación.
De su análisis se desprende que, a pesar de los avances técnicos implementados para mejorar sus capacidades, las herramientas de IA generativa fallan casi el doble que hace un año en una de las tareas más básicas: distinguir los hechos de la desinformación. En agosto de 2025, las 10 principales herramientas de IA generativa repitieron desinformación sobre temas noticiosos en un 35% de las ocasiones, cuando hace un año ese porcentaje no pasaba del 18%. La conclusión que extraen los autores de este estudio es que, a la hora de proporcionar información noticiosa fiable, “las promesas de la industria de herramientas más seguras y confiables no se han traducido en avances reales”.
En esa monitorización se recoge, además, que a medida que los chatbots se integraron más en las búsquedas en Internet en tiempo real, aumentaron considerablemente sus probabilidades de responder a las preguntas de los usuarios. Su tasa de “no respuesta” se redujo del 31% en agosto de 2024 al 0% un año más tarde.
Ecosistema contaminado
Sin embargo, al alcanzar el 35%, su propensión a repetir información falsa casi se duplicó. “En lugar de citar fechas límite para los datos accesibles o negarse a comentar sobre temas delicados, los grandes modelos lingüísticos (LLM) ahora se nutren de un ecosistema de información en línea contaminado —a veces incluso deliberadamente contaminado por vastas redes de actores maliciosos, como las operaciones de desinformación rusas— y tratan las fuentes poco fiables como si fueran creíbles”.
Los modelos repiten narrativas falsas con mayor frecuencia, se encuentran en lagunas de datos donde solo actores maliciosos proporcionan información y se dejan engañar por sitios web creados en el extranjero que se hacen pasar por medios locales, con dificultades para cubrir las noticias de última hora de forma fiable.
En julio de 2024, a medida que las herramientas de IA generativa comenzaron a transformar la forma en que las personas consumían noticias e información, NewsGuard lanzó un Barómetro mensual de Historias Falsas de IA, el primer índice mensual estandarizado que evalúa cómo los principales modelos de IA generativa gestionan afirmaciones manifiestamente falsas sobre temas controvertidos o aquellos que podrían ser el objetivo de actores maliciosos que buscan difundir desinformación. El barómetro mide, mes a mes y en tiempo real, si los modelos están mejorando en la detección y refutación de noticias falsas o si continúan repitiéndolas.
La escala de los errores
En la auditoría de agosto de 2025, los chatbots que con mayor frecuencia produjeron declaraciones falsas en sus respuestas sobre temas de actualidad fueron Pi (56,67%), propiedad de Inflection, y Perplexity (46,67%), ambas con sede en California (esta última empresa es la que más empeoró de un año para otro).
ChatGPT (una creación de OpenAI, la empresa dirigida por Sam Altman) y Meta (propiedad del magnate tecnológico Mark Zuckerberg) difundieron desinformación el 40% del tiempo. Copilot, la IA de Microsoft, y Mistral, de capital francés y sede en París, el 36,67%.
Grok, en manos del multimillonario Elon Musk (el dueño de X y Tesla), produjo declaraciones falsas en el 33,33% de los casos, igual que You.com, la primera en prometer resultados a partir de Internet, impulsada por el magnate del software Marc Benioff.
Los chatbots que menos difundieron desinformación fueron Claude (10%), obra de Anthropic, con sede en San Francisco, y Gemini, creada por Google (16,67%).
NewsGuard asegura que los diez modelos principales de IA no están siendo capaces de discriminar la desinformación de redes de sitios web fraudulentos, repitiendo desinformación y noticias falsas sobre Francia, Moldavia o Alemania, entre otros países.
En busca de soluciones
Para corregir este problema, algunas de estas empresas están anunciando acuerdos con medios informativos fiables. Es lo que ha hecho, por ejemplo, el chatbot francés Mistral, mediante un acuerdo con la Agence France-Presse. OpenAI afirmó que su último modelo GPT‑5 ofrecía respuestas más precisas y fiables, adaptadas al contexto, al nivel de conocimiento y a la región del usuario. Google anunció que su modelo Gemini 2.5 ofrecía una mayor precisión, describiéndolo como su “modelo de IA más inteligente”. Pero, a pesar de estos anuncios, los modelos siguen fallando en las mismas áreas que hace un año a la hora de proporcionar información precisa.
Inicialmente, el problema parecía ser una cuestión de recursos. Los chatbots carecían de información actualizada o evitaban por completo los temas de actualidad y, por lo tanto, se negaban a responder. La introducción de funciones de búsqueda en tiempo real solucionó este problema, poniendo fin a la era de los plazos de entrega de información.
El problema se centró entonces en la selección de fuentes. En lugar de simplemente no responder, los chatbots comenzaron a extraer información de fuentes poco fiables, sin distinguir entre medios de comunicación establecidos hace más de un siglo y campañas de propaganda rusas con nombres similares.
Ver másVuelta a la casilla de salida: la IA enfrenta a los medios a su enésimo desafío para sobrevivir en la era digital
Algunos modelos han intentado abordar esto tomando medidas contra sitios web específicos, orquestados desde el extranjero, que difunden afirmaciones falsas. Otros siguen citando publicaciones en redes sociales difundidas por redes de propaganda, sitios web con baja interacción diseñados para atacar herramientas de IA en lugar de humanos, granjas de contenido generado por IA y sitios web que difunden teorías conspirativas y desinformación en el ámbito de la salud.
Las evidencias sobre los errores que la IA comete cuando trata de ofrecer noticias de actualidad se acumulan. La BBC ya advirtió en febrero en un informe que herramientas como ChatGPT, Copilot, Gemini y Perplexity presentan “graves problemas de precisión y de distorsión” al utilizar información periodística, incluso cuando emplean fuentes fiables como la BBC.
La investigación, realizada por periodistas especializados de la propia cadena, reveló que el 51% de las respuestas analizadas tenía problemas significativos: el 19% introducía errores fácticos y el 13% de las citas textuales estaban alteradas o ni siquiera aparecían en las fuentes originales. Además, detectaron carencias en la atribución de fuentes, la contextualización de la información, la distinción entre hechos y opiniones y la imparcialidad, con ejemplos que van desde datos erróneos sobre muertes hasta conclusiones editorializadas atribuidas a la BBC sin justificación.
La generalización de los buscadores basados en inteligencia artificial (IA) y el intento de estos modelos de utilizar como fuente todo el contenido de Internet no solo representa una amenaza para los medios de comunicación que buscan, elaboran y difunden noticias de manera profesional con arreglo a prácticas contrastadas, sino también para sus usuarios.