Un tsunami de 'deepfakes': ¿qué hacemos?

Antonio Estella

La entrada en escena de DeepSeek (“busca profunda”, significa en español) nos ha devuelto al debate sobre el impacto de la Inteligencia Artificial en nuestras vidas y en nuestros sistemas políticos. DeepSeek, como ChatGPT, o como Gemini, no están pensados para hacer deepfakes; sin embargo, pueden producir deepfakes de altísima calidad. Un ejemplo: he pedido a ChatGPT que me elabore un texto que emule a la “Montaña Mágica”, de mi querido y más admirado Thomas Mann. Este sistema de IA ha tardado exactamente 5 segundos en realizar dicho texto. Y la calidad es excepcional. A pesar de que he leído el libro de Mann muchas veces, de ser mi libro favorito de todos los libros que jamás haya leído, y de que Thomas Mann sea mi escritor número 1, no habría sido capaz de detectar si el texto era real o generado artificialmente.

ChatGPT me dice: “Este fragmento está completamente generado por mí y no aparece en La montaña mágica de Thomas Mann. Lo escribí inspirado en su estilo, usando temas y el tono que son característicos de la obra, pero es una creación original, no una cita ni una reproducción de ningún pasaje del libro. Intenté capturar el espíritu contemplativo y existencial que se encuentra en el texto de Mann, pero sin copiar ningún contenido específico. ¡Así que no te preocupes! Este es solo un ejemplo ficticio, no una reproducción literal”. 

Es decir: en este caso, ChatGPT ha hecho los deberes (es verdad que preguntado por mí) y ha indicado expresamente que el texto había sido generado artificialmente. En realidad, el reglamento de IA de la Unión Europea, que acaba de ser aprobado, obliga a etiquetar las deepfakes, incluso las deepfakes textuales. Pero como es natural, muchas de las que circulan por las redes y por internet no están etiquetadas como tales. ¿De cuántas deepfakes estamos hablando, cuál es su número exacto? No lo sabemos. Los pocos cálculos que empiezan a existir al respecto nos indican que el fenómeno está alcanzando las proporciones de un verdadero tsunami. Por ejemplo, la web “Security Hero” señala en su informe “2023 state of deepfakes” que el número total de videos de deepfakes que circularon online en 2023 fue de 95.820, lo que representó un aumento del 550% desde el año 2019. Estamos hablando solamente de videos, es decir, no se tiene en cuenta en el informe ni el audio, ni la imagen, ni por supuesto, el texto. La realidad, por tanto, debe de ser mucho más grave de lo que estos datos nos permiten entrever.

En España diríamos “a río revuelto ganancia de pescadores”: si gran parte de la información que circula en redes es falsa, entonces desconfío de toda la información, en general

Es cierto que las deepfakes pueden incorporar contenidos positivos; es lo que se denomina “deepfakes for good”. Sin embargo, el anterior informe alerta de que la mayor parte de los videos analizados incorporan contenidos pornográficos (exactamente, el 98% de los videos examinados), que afectan a mujeres fundamentalmente, además. Es decir: la mayor parte de las deepfakes son deepfakes “for bad”, no “for good”. El fenómeno, que ha afectado ya a conocidas actrices como por ejemplo Scarlett Johansson, va sin embargo mucho más allá de la esfera de la pura privacidad, y afecta directamente a la democracia. El caso más claro lo hemos vivido recientemente, en las elecciones a la Presidencia de los Estados Unidos. Por ejemplo, durante las elecciones, se mostraron imágenes de Taylor Swift, y de seguidores de esta cantante norteamericana, apoyando a Trump, cosa que la misma tuvo que desmentir públicamente. Es decir, el fenómeno de las deepfakes no solamente afecta a nuestra privacidad; afecta a la propia democracia. El “mecanismo” a través del que las deepfakes afectan a la democracia es indirecto: a por lo que se va no es a por la democracia directamente, sino a por su argamasa fundamental, la confianza. Sin confianza en la política y en los políticos, no puede funcionar la democracia. Además, la amplitud del fenómeno, su importancia cuantitativa y cualitativa, está generando lo que algunos expertos denominan el “liar’s dividend”, el dividendo del mentiroso. En España diríamos “a río revuelto ganancia de pescadores”: si gran parte de la información que circula en redes es falsa, entonces desconfío de toda la información, en general. De ahí a decir que toda la información que se genera y que consultamos es falsa, hay solamente un paso.

El debate se complica porque en Estados Unidos (uno de los mayores productores de IAs y de redes sociales, junto con China) existe una comprensión casi absoluta del derecho fundamental a la libertad de expresión. Desde que el Tribunal Supremo de los Estados Unidos dijera aquello de que “la falsedad solamente se combate con la verdad”, y no con prohibiciones, entonces las deepfakes campan por sus respetos en todas las redes sociales de aquel país. En el otro extremo encontramos a China, interesada en que las redes sociales y la IA se conviertan en parte de su “techno-fare” contra otras potencias, en particular, contra Estados Unidos. De la Unión Europea prefiero ni hablar: se ha creído lo del “efecto Bruselas” de Anu Bradford, y está dedicada a hacer regulaciones cada vez más incomprensibles sobre un mercado, como el de IA, que es casi inexistente en nuestros países.

¿Qué hacer ante ello? Hay muchas cosas que se pueden hacer. Lo primero de todo: no tirar la toalla, esta es una guerra que se tiene que ganar. Lo segundo: por ejemplo, Taiwan tiene a cientos, si no miles, de “tecno-policías” detectando las deepfakes que provienen de China para desestabilizar aquel país. Creemos una fuerza (europea, a ser posible) que haga lo mismo. Tercero, llenemos de bots-policiales” las redes sociales, para que detecten y eliminen las deepfakes que atenten directamente a la democracia. Cuarto, eduquemos de manera decidida a la gente para que sea consciente de que las deepfakes campan por sus respetos en las redes, a pesar de que sigue habiendo información veraz, y démosles a las personas herramientas para detectar, cuando tengan dudas, si un contenido es falso o no. Y último, insisto una vez más: no tengamos miedo a prohibir lo que haya que prohibir. Como decía Thomas Mann: la próxima vez, el fascismo volverá enarbolando la bandera de la libertad.

________________________________

Antonio Estella es Profesor Asociado en Ley Administrativa en la Universidad Carlos III de Madrid.

Más sobre este tema
stats