"No es un divertimento, es delito": qué dice la ley sobre los 'deepfakes' pornográficos y pedófilos

Varias imágenes de una chica haciendo gestos frente a una cámara.

Lo de que una imagen vale más que mil palabras podría estar a punto de pasar a mejor vida. En lo que llevamos de 2023, hemos podido ver al papa Francisco con un moderno abrigo de plumas, a Donald Trump siendo detenido por la policía o a Rosalía desnuda. Lo que une a las tres fotografías es que las tres son falsas, han sido generadas por inteligencia artificial y creadas por usuarios relativamente anónimos. La cosa se complica si a estas imágenes falsas le damos movimiento: son los famosos deepfakes, estos videomontajes hiperrealistas que han permitido en el cine revivir y rejuvenecer a Carrie Fisher en dos películas de la saga de Star Wars o en publicidad resucitar a Lola Flores para protagonizar un anuncio de una marca de cervezas. 

Sin embargo, ahora mismo, esta tecnología se está desarrollando ya en código abierto y se está poniendo al alcance de la mano de los usuarios. Se abre así todo un mundo de opciones que van desde inocentes creaciones imaginativas, pasando por divertidos vídeos de políticos diciendo alguna tontería hasta las preocupantes imágenes pornográficas. "La gente cree que es un divertimento, pero es un delito. No hay que regular la tecnología, pero sí el uso de la tecnología", explica Borja Adsuara, profesor universitario y experto en derecho digital, privacidad y protección de datos.

Aunque el problema no es nuevo. En el año 2017, las actrices Daisy Ridley y Gal Gadot saltaron a los titulares por ser víctimas de estos deepfakes sexuales. Este mismo año, la creadora de contenidos QTCinderella también denunció en su canal de Twitch aparecer en una de estas grabaciones en una web pornográfica: "Verte desnuda en contra de tu voluntad y difundida en internet es como sentirse violada"

Lo que está sucediendo ahora es que la popularización de esta tecnología permite que los deepfakes estén afectando ya a personas anónimas y, sobre todo, a menores. No hay que olvidar que, según datos de la Comisión Europea, el abuso sexual de menores no es un fenómeno aislado y sólo en 2021 se denunciaron en el mundo 85 millones de imágenes y vídeos con pornografía infantil. Por esta razón, los expertos han puesto el foco ya en que los pedófilos están utilizando herramientas de inteligencia artificial para generar nueva pornografía infantil y compartir con otros este contenido. Es más, según denunció el pasado mes de mayo el experto e investigador Henk van Ess se encontró este tipo de contenidos sin buscar activamente imágenes sexuales de menores. 

La seudopornografía infantil: creación artificial pero realista

En España, tal y como recuerdan los expertos consultados por infoLibre, la pornografía infantil es ilegal. "Y crear imágenes de este estilo tiene que estar prohibido", explica Sergio de Juan-Creix, profesor colaborador de los estudios de Comunicación de la Universitat Oberta de Catalunya (UOC) y abogado de Croma Legal, que apunta que "si están reproduciendo a un menor real es delictivo y si son totalmente inventadas es lo mismo porque sería una incitación". Por su parte, Eduardo Valpuesta, catedrático de Derecho Mercantil y director del Máster en Derecho Digital de la Universidad de Navarra, señala a otra cuestión: "El problema de Internet muchas veces es donde opera una persona y donde se crea ese contenido. Y ahí dependerá de con qué ley y en qué país se juzgue". 

En una circular de la Fiscalía General del Estado de 2015 sobre estos delitos se introdujo el concepto de "pornografía virtual" o "seudopornografía infantil". "Muy pronto –y ya es difícil— será imposible distinguir entre imágenes reales e imágenes generadas por ordenador", detalla el documento al tiempo que matiza que se trata de aquellas en las que "la imagen del menor es una creación artificial pero realista". Según defiende Adsuara, "la seudopornografía infantil no es real, pero como si lo fuera. Se regula como inducción". 

Lo que la Fiscalía deja sin tipificar son los "dibujos animados, manga o representaciones similares" ya que entiende que "no serían propiamente imágenes realistas". "En España no es delito porque entra dentro de la creación artística, pero en otros países, como Australia, sí", sostiene Adsuara. 

Con esta regulación, en España, a finales de 2022, ya se produjo la primera detención de un pedófilo que utilizaba esta tecnología para crear "material de abuso sexual infantil de extrema dureza". "Los agentes encontraron por primera vez material de abuso sexual infantil creado mediante el uso de la inteligencia artificial", explica la Policía Nacional en una nota

"Es un tipo de violencia y da asco"

"Lo que no está regulado es la seudopornografía de adultos", reconoce Adsuara. El último ejemplo de este tipo de imágenes falsas lo protagonizó la cantante Rosalía. "Es un tipo de violencia y da asco", publicó la artista en su cuenta de Twitter tras hacerse viral una fotografía suya desnuda generada por inteligencia artificial. 

Adsuara distingue cinco tipos de imágenes sexuales que se difunden por Internet. La primera es el conocido como sexting. La segunda es el envío no consentido de imágenes sexuales. "Muchas veces se confunde con el sexting, que no es un delito. Lo que es un delito es reenviarlas sin su consentimiento", argumenta este experto que recuerda que esto fue lo que pasó en 2012 el caso de Olvido Hormigos. Ahora, lo sucedido, sería un delito contra la integridad moral, incorporado en el Código Penal por la ley del sólo sí es sí. 

El tercer y cuarto tipo son la difusión sin consentimiento de imágenes captadas ilegalmente o de aquellas logradas legalmente. "Si un hacker accede a un móvil y se hace con fotos, es revelación de secretos y contra la intimidad. Y se añadiría la extorsión si se intenta sacar algo a cambio por no publicarlas", sostiene Adsuara. 

"Aunque sea un fake, la intención es que aparente ser real"

Y, por último, la difusión de imágenes sexuales falsas. "Si lo que se difunde se ha elaborado con inteligencia artificial plantea un problema jurídico. No está tipificado", admite Adsuara. "El debate es que estas imágenes no atentan contra una persona, pero pueden perturbar la sensibilidad del que la ve. Muchas veces la ley no dice a quién protege, si al afectado o al espectador. Son discusiones teóricas y un lío legal", argumenta Valpuesta. 

No obstante, la difusión de deepfakes con la cara de una persona real sí que podría juzgarse como un delito contra la intimidad y contra la integridad moral. "Crear estas imágenes sería legal, porque la pornografía es legal. Lo que no vale es poner caras conocidas a estos contenidos. Aunque sea un fake, la intención es que aparente ser real", reconoce De Juan-Creix. 

¿Hay un vacío legal? "En España la inteligencia artificial no está regulada para nada", afirma Valpuesta. Por su parte, Adsuara considera que no existe tal laguna, aunque sostiene que quizá convendría retocar algunos artículos del Código Penal: "Ya se puede actuar con lo que hay, pero lo ideal sería añadir lo de la seudopornografía, como en la infantil. Se puede copiar casi literalmente del caso de los menores". De Juan-Creix también apunta que "la situación es mejorable" pero que se puede recurrir al Código Penal y de la ley de protección civil del derecho al honor, a la intimidad personal y familiar y a la propia imagen.

¿Y qué se puede hacer si nos encontramos con un deepfake pornográfico con nuestra cara? "Activar los mecanismos legales: denunciar a la policía, al Instituto Nacional de Ciberseguridad (Incibe) y a la Agencia Española de Protección de Datos", explica De Juan-Creix que señala que así se "pone la maquinaria en marcha para impedir la viralización de ese contenido". 

La UE propone crear etiquetas para marcar el contenido generado con inteligencia artificial

Por ahora no hay una legislación como tal que regule estas creaciones pornográficas o no de inteligencia artificial, pero se han comenzado a dar los primeros pasos. En Europa, la futura ley sobre esta materia ha entrado en su fase final. Sin embargo, los cálculos más optimistas admiten que podría estar lista a finales de este año, aunque habría que esperar hasta 2025 para que entrase en vigor. "La propuesta de reglamento europeo incluye que se identifique como creadas por inteligencia artificial aquellos contenidos creados como tales", afirma De Juan-Creix que reconoce que funcionará como con la publicidad encubierta: "Si es publicidad se tiene que identificar como tal, y con los deepfakes pasará lo mismo". 

¿Y en el resto del mundo? En EEUU, Texas y Virginia ya cuentan con leyes que nombran expresamente a esta tecnología y California incluso regula su uso no autorizado. En Reino Unido, el Gobierno planteó en noviembre de 2022 ilegalizar el intercambio de deepfakes de carácter pornográfico distribuidos sin el consentimiento o bajo la ignorancia de las personas que aparezcan en dichas imágenes. 

Estos primeros movimientos de los Gobiernos y las denuncias de la comunidad investigadora han provocado que las tecnológicas detrás de estas herramientas hayan comenzado a mover ficha, tal y como recogió en abril Los Angeles Times. OpenAI, la compañía detrás de ChatGPT, asegura que eliminó el contenido explícito para entrenar a DALL-E, su sistema para generar imágenes. Midjourney, que está detrás de las imágenes de Trump detenido o del papa con el abrigo de plumas, defiende que bloquea el uso de ciertas palabras clave y pide a sus usuarios que avisen a los moderadores si se encuentran con estos contenidos sexuales. Y Stability AI lanzó en noviembre una actualización que elimina la capacidad de crear imágenes explícitas utilizando su generador de imágenes Stable Diffusion. 

Más del 90% de los deepfakes pornográficos son de mujeres

Discriminación a migrantes y sesgos de género, las grietas de la ley europea de inteligencia artificial

Discriminación a migrantes y sesgos de género, las grietas de la ley europea de inteligencia artificial

Aunque no están regulados los deepfakes pornográficos, lo cierto es que son una práctica habitual. Y así se ve en los datos. Según un estudio de la compañía especializada en ciberseguridad Deeptrace de 2019, ocho de las diez principales web de pornografía incluyen contenidos hechos con inteligencia artificial. Y, es más, otra investigación de Sensity AI en 2018 señala que entre el 90 % y el 95 % de estos deepfakes son pornografía no consentida, y de ellos, el 90% es contenido protagonizado por mujeres. 

Y es que las mujeres son las principales víctimas de estas prácticas. El pasado mes de abril, a través de Twitter, la Asociación de Mujeres Juezas alertó de los deepfakes ya que "a pesar de ser falsos" se han convertido en "una dura realidad" y en "un mecanismo para ejercer violencia contra las mujeres". "Las imágenes resultantes, aunque ficticias, parecen reales y en demasiadas ocasiones son difundidos como tal y con una intención maliciosa", explican al tiempo que apuntan que "queda aún un gran camino en la definición e identificación de los delitos digitales como tales, por lo que muchas veces la denuncia se trata como un caso de injurias o como un delito contra la integridad moral". 

El Instituto Europeo para la Igualdad de Género también calificó en un informe en 2022 a los deepfakes como "una nueva y sofisticada forma de agresión machista" con "graves consecuencias para las víctimas". En palabras de la periodista Marta Peirano en un artículo en SModa tras la foto falsa de Rosalía, "la violencia digital contra las mujeres no es exactamente un problema técnico. Es una estrategia de control".  

Más sobre este tema
stats