La portada de mañana
Ver
El bulo del pucherazo que adulteró el 28M: cómo el PP y sus medios armaron con éxito un engaño electoral

Información falsa o sesgada y falta de empatía: por qué es mala idea usar ChatGPT para suplantar a periodistas

La futbolista Irene Guerrero atiende a los medios de comunicación en Sevilla.

La irrupción de ChatGPT a principios de 2023 ha puesto la inteligencia artificial, sobre todo la generativa —la que tiene capacidad para crear textos, imágenes, vídeos o audio—, encima del tablero de muchos sectores como la educación, la música o el cine. Y el periodismo, por supuesto, no ha sido una excepción. Para los profesores Mike Ananny y Jake Karr en un artículo publicado este mismo martes en Nieman Lab, esta tecnología plantea "la mayor amenaza a la libertad de prensa en décadas" ya que no tiene un compromiso con "la verdad, la elocuencia o el interés público" y funciona como "loros estocásticos".

Razones no le faltan. Sólo en este año, hemos visto como el medio de especializado CNET estuvo meses publicando artículos enteros generados gracias a esta tecnología —sin mucho éxito y con errores flagrantes— o, este mismo mes de septiembre, como Gizmodo en español despidió a toda su plantilla en España y los reemplazó por traducciones automatizadas de su versión en inglés. 

"El mayor riesgo de usar ChatGPT en esta profesión es que se pierda la esencia humana del periodismo", explica en conversación con infoLibre Jorge Vázquez-Herrero, profesor de la Facultad de Ciencias de la Comunicación de la Universidade de Santiago de Compostela (USC) y autor de un artículo junto a Beatriz Gutiérrez-Caneda y Xosé López-García [consultar aquí íntegro]. Esta investigación, publicada esta misma semana en la revista Profesional de la Información, analiza la aplicación de esta herramienta de OpenAI en redacciones a través de su introducción durante una jornada laboral. En concreto, fueron doce periodistas de diferentes edades y de sectores con escaso o nulo contacto previo con herramientas tecnológicas basadas en inteligencia artificial. 

Para "tareas sencillas" relacionadas con la comunicación (no con el periodismo)

Los resultados muestran la utilidad de ChatGPT para automatizar procesos mecánicos, reescribir o traducir textos, analizar datos o generar ideas nuevas de contenido. "Esta inteligencia artificial demuestra sus posibilidades para reducir el tiempo de producción, redacción, gestión y difusión de contenidos periodísticos, lo que podría derivar en una disminución de carga de trabajo para los periodistas", detalla el artículo ya que se trata de "tareas sencillas, más relacionadas con la comunicación que con la producción periodística en sí". 

Lo cierto es que, en España, desde hace ya varios años varios medios usan esta tecnología en este sentido. Lo explica en conversación con infoLibre Patrícia Ventura, doctora en Medios, Comunicación y Cultura de la Universidad Autónoma de Barcelona y autora en marzo de 2022 de un estudio sobre algoritmos en la redacciones elaborado con el Consell de la Informació de Catalunya (CIC) [consultar aquí íntegro]: "La inteligencia artificial se integra en el periodismo desde hace años con la analitica, la automatización de texto… está presente de muchas maneras".

Cómo están usando los medios españoles la inteligencia artificial

Por ejemplo, El País la utiliza para la moderación de comentarios en la web. RTVE, 20 Minutos o El Periódico usan un robot de una empresa externa para redactar notas periodísticas basadas en datos de encuentros deportivos, de resultados electorales de pequeñas localidades o para la información meteorológica. 

En infoLibre, en nuestra sección de verano Cómo están las máquinas, pusimos a prueba a ChatGPT para comprobar si podía ser periodista. El resultado no fue exitoso ya que se trataba de una crónica "plana y sin emotividad" al que le faltaba "calidez, emoción, originalidad y cercanía con el lector".

La polémica, no obstante, llegó hace sólo un par de semanas: La Razón confesó el pasado agosto que en uno de sus artículos "cedían el protagonismo a la inteligencia artificial" que "amablemente redactó este texto para ahorrarnos recursos y liberarnos de invertir tiempo en ello". El punto de partida puede ser entendido como correcto, pero la pieza la firmaba Camila Pujalví que, como han detectado en Twitter, pública sobre unos treinta artículos diarios, aunque en ningún otro avisa que sea un alter ego para los temas creados por esta máquina. 

Información falsa, sesgada y que prima la cantidad, no la calidad

Y aquí reside el problema, el otro lado de la moneda: los peligros que trae en la otra mano un uso indiscriminado de ChatGPT en el periodismo. En esta investigación de profesores de la USC detectan desinformación, inexactitudes, sesgos derivados de los datos que se usaron durante su entrenamiento, falta de empatía o preponderancia de contenidos más repetidos, la llamada "tiranía de la mayoría" en la que prima lo cuantitativo sobre lo cualitativo. "Traslada las mismas disfunciones de la sociedad", reconoce Vázquez-Herrero. 

Gran parte de estos riesgos radican en la propia naturaleza de ChatGPT, en concreto, y de las inteligencia artificiales generativas en general. "Se construye sobre una gran cantidad de datos que pueden trasladar sesgos e ir en contra de la privacidad de los datos", explica Vázquez-Herrero. No hay que olvidar que, como ya se ha publicado, esta herramientas tiene ideología y también es machista, racista y tiene prejuicios sociales.

Los participantes en esta investigación se mostraron, sobre todo, preocupados por la "facilidad" con la que incorpora información falsa. "Lo hace en un formato y una apariencia que favorece que se considere información relevante, creíble y fiable". El riesgo de estas fake news fabricadas por ChatGPT es que "se pueden generar movimientos desinformadores con redes para generar un determinado movimiento con repercusión en un ámbito específico", detalla Vázquez-Herrero. Este profesor de la USC sostiene, no obstante, que existen diferencias entre la creación de un contenido "falso" o uno de "alucinación", es decir, que puede tener un aspecto verosímil pero que "carece de sentido". 

"No se inventa nada porque es una máquina, pero se entrena con datos que no son rigurosos", apunta Ventura que insiste en que "no está programada para responder ‘no sé responder’ por eso se inventa, entre comillas, estas respuestas con otros datos". Por ello, es necesario que "los periodistas adopten un papel": "La labor periodística es muy necesaria porque vivimos en un mundo en el que estamos siendo bombardeados por información. El periodista tiene que hacerse valer". 

De la falta de empatía a los derechos de autor

Más allá de la desinformación u otros elementos en los que tropieza ChatGPT como fruto de su naturaleza, otro de los riesgos que detectaron en esta investigación es el problema de que detrás del periodismo se esconda una máquina y no un ser humano con sentimientos y sensibilidades. La herramienta "carece de empatía", una cualidad humana y una cuestión de "especial relevancia en determinados casos" como aquellas situaciones en las que una información pueda "herir la sensibilidad del público". 

"Por mucho que se exprese de forma natural, no va a entender el problema de una forma clara y cuidadosa en temas delicados", matiza Vázquez-Herrero. "El ser humano tiene puntos que no tiene la máquina", recuerda Ventura. 

Además, otro factor a tener en cuenta son los derechos de autor. En el caso de ChatGPT, los datos con los que se ha sido entrenado no evitan contenido con copyright. "Tenemos que plantearnos hasta qué punto es legítimo usar este tipo de herramientas", sostiene Ventura que, no obstante, recuerda que otras inteligencias artificiales generativas beben de datos "de contenido libre". Es decir, "hay herramientas éticas y legales y otras no tanto", explica esta experta. 

ChatGPT necesita supervisión humana

Lo que queda claro tras leer esta investigación es que por muy inteligente que sea, ChatGPT necesita supervisión humana. Sobre todo, en el periodismo para evitar contenido erróneo, sesgado y que pone en peligro la veracidad de la información. Por ello, entre otras cosas, una mayoría de los participantes en esta investigación de la USC considera que la inteligencia artificial no puede sustituir a los periodistas, aunque sí que puede modificar sus rutinas. 

Machista, racista y… ¿con ideología? La inteligencia artificial también tiene sesgos políticos

Machista, racista y… ¿con ideología? La inteligencia artificial también tiene sesgos políticos

"Nadie ve, por el momento, la opción de que el periodista pueda ser sustituto. ChatGPT puede hacer reenfoques, tareas más mecánicas o gestionar grandes cantidades de datos, dejando así tiempo a la persona para otros procesos como el  reporterismo, hacer llamadas a expertos o investigar", reconoce Vázquez-Herreros.

"Si acabamos cediendo el uso de la palabra a herramientas de ese tipo, ¿en qué lugar nos deja a los periodistas? Es un tema deontológico porque si cedemos el poder de informar, estamos privando a las personas de la libertad de prensa porque nadie garantiza que esa información sea veraz", defiende Ventura. 

Por ello, ambos expertos coinciden en que la introducción de esta tecnología en el periodismo debe hacerse con transparencia. "Que se etiquete el contenido generado", propone Vázquez Herreros. La UE, en su futura ley para regular esta tecnología, plantea establecer etiquetas para marcar el contenido generado gracias a estas máquinas. "Hay que gobernar la inteligencia artificial: buscarle el para qué a la tecnología como podría ser ofrecer un producto de calidad y llegar a más personas. Si esta herramienta u otras contribuyen a ofrecer información de calidad, bienvenida sea", concluye Ventura.

Más sobre este tema
stats