Agua potable en tiempos de 'deepfakes'

Imagen del papa creada con inteligencia artificial.

Estos días de procesiones y Semana Santa, seguro que alguien ha comentado lo moderno y transgresor que se ha vuelto el papa Francisco, que además de participar en documentales de Disney también va de fashion victim por el Vaticano vistiendo abrigos de Balenciaga. O peor y más grave, seguidores de Donald Trump que, indignados por las imágenes de su líder perseguido y acorralado por la policía, han generado innumerables mensajes de odio porque, como la de Julian Assange en la cárcel, siguen creyendo que son reales.

El debate sobre los peligros de los deepfakes, término en inglés que se utiliza para definir a las imágenes, audios o vídeos manipulados a través de una inteligencia artificial para que parezcan auténticos, se reabría esta semana con un reportaje que el diario El Mundo llevaba a portada. Más allá de la polémica surgida por este caso concreto y la imagen de Pablo Iglesias y Yolanda Díaz fabricada con inteligencia artificial, los deepfakes son la punta del iceberg de un panorama cada vez más incierto en el mundo digital.

Políticos como ellos van a necesitar cada vez más al periodista para hacer frente a un reto que no es nuevo, pero que sí que se está refinando a través de la tecnología. Un desafío que debe buscar cómo contrarrestar, desde la comunicación política, la posibilidad de que un vídeo ponga en boca de un candidato palabras, ideas o acciones que nunca fueron verdad, cuando el votante cumple la máxima de “si lo veo, lo creo”.

El agua potable y la verdad ilusoria

El periodista Iñaki Gabilondo lleva varios años utilizando una metáfora que define muy bien el estado en el que nos encontramos. En esta época de inundación informativa, suele decir, lo que escasea es el agua informativa potable. En este escenario, la responsabilidad de los medios de comunicación es convertirse en pozos aptos para el consumo. Y la de los ciudadanos, ir a buscar la información en ellos. Pero, en esta intermediación, las fake news generan confusión en unos usuarios cada vez más desprotegidos y con menos tiempo e interés en contrastar lo que reciben en fuentes fiables.

Hay un fenómeno no muy conocido, pero sí interesante, denominado el efecto de la verdad ilusoria. Consiste básicamente en que cuantas más veces vemos repetida una noticia falsa, más verídica nos parece. Estar familiarizados con ella, haberla visto en varias ocasiones cuando hacemos scroll en nuestros teléfonos, le confiere apariencia de verdad. “La psicóloga de la Universidad de Toronto Lynn Hasher señala que este efecto se amplifica cuando las personas están cansadas o distraídas por otras informaciones, una situación que el entorno digital propicia”, explica Diego Hidalgo en su libro Anestesiados, en el que analiza los retos que tiene la humanidad al estar bajo el imperio de la tecnología.

El problema de la desinformación se está agravando con la proliferación de deepfakes que se comparten masivamente en redes sociales. Hace un año, un mes después de la invasión rusa, Zelenski anunciaba en un vídeo la rendición de Ucrania en la guerra. Se hizo viral, pero era falso y había sido creado con inteligencia artificial. Si el presidente ucraniano no lo hubiese desmentido rápidamente, podría haber tenido consecuencias. “Los deepfakes pueden contribuir a un sesgo profundo en el debate político y suponen un reto enorme no solo para la política, sino también para la justicia del futuro porque muchas veces se apoya en vídeos como pruebas en juicios”, explica Hidalgo por teléfono desde Marruecos. El emprendedor es también experto del Instituto Hermes, una fundación que se dedica a difundir los derechos digitales.

El escepticismo en su justa medida

El de Zelenski es un caso que ya ha ocurrido, pero imaginemos, por ejemplo, que justo la noche antes de unas elecciones, se publica un vídeo manipulado del candidato que más opciones tiene de ganar, en una situación comprometida. Empieza a difundirse rápidamente en redes sociales y apenas hay tiempo de reacción para confirmar que es falso. “Estas imágenes tendrían la oportunidad de alterar unas elecciones, sembrando la duda, erosionando la confianza y dividiendo aún más a la sociedad”, advierte Diego Hidalgo.

¿Está justificado el temor de los gurús de Silicon Valley al avance de ChatGPT? Sí, pero un parón no es realista

¿Está justificado el temor de los gurús de Silicon Valley al avance de ChatGPT? Sí, pero un parón no es realista

El reto, sin duda, es descomunal. ¿Qué podemos esperar si ya ni siquiera nos podemos fiar de lo que vemos con nuestros propios ojos? ¿Cómo vamos a poder diferenciar lo que es verdad de lo que es mentira? “El escepticismo cada vez va a crecer más, pero no puede convertirse en un escepticismo finalista”, explica José Carlos Ruiz, profesor de Filosofía de la Universidad de Córdoba y autor de Incompletos y El arte de pensar, este último sobre ejercitar el pensamiento crítico en la sociedad actual.

Según el Digital News Report de 2022, la confianza en las noticias disminuyó en casi la mitad de los países estudiados. ¿Qué pasa si el escepticismo creciente también nos lleva a poner en duda la información veraz que recibimos a través de los medios de comunicación? “Se está produciendo un proceso de desconfiguración de la cohesión de las sociedades que lleva al aislamiento porque estamos utilizando la duda con una finalidad escéptica y no metódica”, explica el filósofo.

Los avances tecnológicos van cada vez más rápidos, y la legislación, sobre todo en Europa, intenta seguirle el ritmo. “Creo que, igual que se hace con la comida, se debería conocer la trazabilidad de estas imágenes y vídeos en redes sociales, que haya una leyenda que especifique si han sido generadas o no por inteligencia artificial, esto ya se está estudiando”, sostiene Ruiz. Un pequeño parche para evitar que el agua potable, en medio de la inundación, se contamine aún más.

Más sobre este tema
stats