De las menores de Almendralejo a Rosalía: así se denuncia la pornografía sintética

Varias jóvenes sentadas mirando un móvil en la Praia do Torno durante las fiestas de la Maruxaina.

La alarma saltó el pasado lunes en la localidad extremeña de Almendralejo: más de una veintena de madres denunciaron la difusión de fotografías pornográficas de sus hijas creadas con una inteligencia artificial por un grupo de menores. Este viernes, se conocía también que el pasado agosto la comisaría de la Policía Nacional de Alcalá de Henares recibió dos denuncias por la difusión de imágenes en la que se desnudaban a niñas. En ambos casos son falsas pero hiperrealistas. Es lo que se conoce como pornografía sintética. Se podría sumar un tercer caso de esta misma semana: en Ayamonte (Huelva), la Guardia Civil investiga a un menor por modificar informáticamente, con un programa de photoshop, fotografías de compañeras para después difundirlas por redes sociales. 

No es la primera vez que esto sucede en España. Sólo durante este verano, han trascendido casos que afectan a personajes públicos, como Rosalía o Laura Escanes. "Es un tipo de violencia y da asco", escribió la cantante en su cuenta de X, antes Twitter. "Me repugna la persona que las haya creado, pero también los que están ahí y les parece divertido y callan", publicó la influencer

Todos estos casos, con las diferencias que los separan pero unidos por la novedad de la inteligencia artificial, ponen de relevancia una nueva forma de ejercer violencia contra las mujeres. Abren, además, muchos interrogantes sobre cómo afrontar la situación de encontrarse con una imagen sexual propia creada gracias a una tecnología que se está desarrollando ya en código abierto y que está poniendo al alcance de la mano de los usuarios herramientas que hasta ahora solo habíamos visto en el cine o en la publicidad. 

Vulneración del derecho al honor 

"El daño que se causa es terrible y atenta contra los derechos de las mujeres", defiende Natalia Martos Díaz, CEO y fundadora de Legal Army. Esta abogada especializada en derecho digital detalla en conversación con infoLibre qué hacer cuando se detecta una de estas imágenes de pornografía sintética: "Lo primero, si están publicadas en alguna red social, es denunciar a través de los canales de la propia plataforma. Es lo más rápido y eficiente porque estas empresas son responsables subsidiarias de lo que se publica". 

Después, las personas afectadas tienen diferentes caminos. Por un lado, denunciar ante la policía y abrir la vía judicial. "Se está vulnerando el derecho al honor, a la identidad y a la propia imagen, que está protegido por una ley de 1982", sostiene Martos Díaz que señala que aunque no sean realmente ellas en la fotografía o el vídeo "les ha afectado y les ha creado un daño". 

Una infracción de protección de datos

Y, por otro lado, la vía administrativa, es decir, solicitar la retirada y denunciar ante la Agencia Española de Protección de Datos (AEPD). "Se está utilizando el rostro, que es un dato personal, y se está usando con un fin ilegítimo", admite esta abogada. En concreto, se está vulnerando el reglamento europeo de protección de datos, que contempla multas que ascienden hasta los 10.000 euros. Como en los tres casos conocidos esta semana, los autores son menores,  si son mayores de 14 años, podrán ser sancionados, aunque serán sus padres o tutores los que responderán económicamente.

En el caso de Almendralejo, la AEPD ha abierto ya una investigación de oficio tras las denuncias sobre los falsos desnudos de estas menores. En respuesta a infoLibre, detallan que han contactado con el Ayuntamiento y la Junta de Extremadura para que difundan que se puede solicitar la retirada de las imágenes publicadas en Internet a través de su canal prioritario, indicando los enlaces desde las que se puede acceder a ellas.

Creado en 2019, desde la Agencia destacan que este canal es una "iniciativa pionera a nivel mundial que permite solicitar la retirada urgente de contenidos sexuales o violentos publicados en internet sin el consentimiento de las personas que aparecen ellos". Tras recurrir a este canal prioritario, la AEPD solicitará a los proveedores de servicios la retirada de estos contenidos ya que "supone una gran ayuda para las personas afectadas". 

Gracias a este canal prioritario, sólo en 2022, la AEPD realizó 51 intervenciones de urgencia para retirar información, imágenes, vídeos o audios publicados en Internet sin permiso y con contenido sensible, es decir, sexual o violento. En 46 de estos casos, se logró la retirada de los contenidos publicados, es decir, con un 90% de efectividad. El 70% de estos casos, tal y como destacan desde la Agencia, se corresponde con actuaciones clasificadas como "violencia digital contra mujeres y niñas"

El problema de que se difundan por WhatsApp

No obstante, este canal prioritario tiene un agujero: la Agencia no puede solicitar la retirada de las imágenes en los casos en los que se difundan por correo electrónico o servicios de mensajería instantánea como WhatsApp o Telegram. Explican que, en estos casos, sólo tienen competencias para "iniciar un procedimiento sancionador contra quien difunda o replique este contenido utilizando dichos medios tras identificar al infractor". 

En el caso de Almendralejo, por ejemplo, las imágenes se difundieron en grupos de WhatsApp y plataformas como OnlyFans, un servicio de suscripción de contenido adulto. "Estoy convencida de que esta página tiene una vía de contacto porque son los primeros interesados en que se retire el contenido", asegura Martos Díaz que apunta que, en casos como el de esta web, el nivel de responsabilidad debe "ser el máximo". 

Llamar al 017 para pedir asesoramiento

Pero, más allá de la vía judicial y de la Agencia de Protección de Datos, las mujeres, o niñas, que se vean ante este tipo de imágenes tienen una tercera vía: Incibe. El Instituto Nacional de Ciberseguridad dispone del canal Tu Ayuda en Ciberseguridad, un servicio gratuito y confidencial para ayudar a resolver problemas ofreciendo asesoramiento técnico, pero también psicosocial y legal. En el caso de fotografías de contenido sexual que impliquen a menores, se puede reportar en la línea Hotline

Además, desde Interior, el ministro en funciones, Fernando Grande-Marlaska, explicó este mismo miércoles que la Policía y la Guardia Civil, "igual que patrullan" el mundo físico para "generar seguridad" también "patrullan el mundo virtual". También el Ministerio de Justicia, según afirmó esta misma semana la ministra en funciones Pilar Llop, está potenciando las oficinas de asistencia a las víctimas para "pedir asesoramiento, ayuda o cualquier tipo de apoyo" ya que "son conductas gravísimas y no debe caber impunidad ni aunque se trate de imágenes manipuladas". 

Y, más allá de perseguir a los autores de esta pornografía sintética, la compañía titular de la aplicación con la que se realizaron los falsos desnudos, aunque no tendría responsabilidad penal en estos tres casos, sí que podría ser acusada de negligencia o la AEPD podría actuar contra ella administrativamente. "Tiene que tener una responsabilidad. Aunque en sus condiciones de uso ponga que se exonera de cómo se usa, está poniendo a disposición de los usuarios unas herramientas que deben de vigilar cómo se usa", explica Martos Díaz que señala que, por lo menos, debería poner "todas las medidas para verificar la autoría de estas imágenes y verificar en qué momento y cuándo se usan". "La empresa debería hacer todo lo posible para que esta inteligencia artificial se utilice correctamente", sostiene esta experta. 

No existe vacío legal

Lo que está claro es que, a pesar de la novedad de esta tecnología y la ausencia aún de una legislación que la regule en vigor, existen mecanismos para que generar pornografía sintética no salga gratis. "A priori, tiene amparo y puede prosperar una demanda. El daño es claro y da igual que se haya creado con inteligencia artificial", defiende Martos Díaz que no es partidaria de "sobrerregular". Esta abogada apunta que lo que se puede hacer es "adoptar nuevas medidas contra las empresas responsables", establecer la necesidad de crear "una huella digital" e "imponer medidas para controlar" la aparición de este tipo de contenidos. 

"No es un divertimento, es delito": qué dice la ley sobre los 'deepfakes' pornográficos y pedófilos

"No es un divertimento, es delito": qué dice la ley sobre los 'deepfakes' pornográficos y pedófilos

En la misma línea se movió el miércoles el fiscal general del Estado, Álvaro García Ortiz, que consideró "prematuro" plantear una reforma del Código Penal para abordar esta nueva tecnología: "Hay elementos normativos suficientes para, en principio, con lo que nos viene, poder atajar lo que pueden ser comportamientos delictivos o no". Cabe recordar que en una circular de la Fiscalía General del Estado de 2015 se introdujo el concepto de "pornografía virtual" o "seudopornografía infantil", lo que cubriría los tres casos de menores conocidos esta misma semana. 

Es más, la vicepresidenta primera y ministra de Asuntos Económicos y Transición Digital en funciones, Nadia Calviño, destacó el martes que entre las prioridades de la Presidencia española se encuentra la de aprobar el reglamento de la UE sobre inteligencia artificial, una norma pionera en el mundo, para evitar que ocurran casos como el de Almendralejo. 

A la espera de esta legislación europea, cabe recordar que Junts per Catalunya presentó el pasado mes de mayo una proposición de ley para incluir en el Código Penal la difusión de deepfakes que  "menoscaben gravemente el honor o la intimidad de una persona", pero fue rechazada y relegada a la siguiente legislatura. El texto proponía penas de prisión de seis meses a dos años. Además, esta misma semana y al calor del caso de Almendralejo, desde Más Madrid anunciaron que están preparando con expertos en código, en género y juristas un proyecto de ley contra la "violencia digital" para regular la inteligencia artificial y evitar casos como el de las menores de Extremadura.

Más sobre este tema
stats