Derechos digitales

Europa regula mejor pero sigue sin ver los datos que importan: la advertencia de una exdirectiva de Facebook

Yaël Eisenstat, durante su intervención en el Primer Encuentro por los Derechios Digitales que se celebra en Barcelona.

Yaël Eisenstat lleva más de 25 años trabajando contra el extremismo —primero como oficial de inteligencia, luego como diplomática, después como asesora en la Casa Blanca—. Para su sorpresa, en 2018 fue contratada por Facebook con el fin de dirigir su trabajo global de integridad electoral en publicidad política. Al segundo día, su título había cambiado. Al sexto mes, dimitió.

Esa trayectoria fue el hilo conductor de su intervención este martes en la apertura del I Encuentro por los Derechos Digitales de Barcelona, donde presentó su diagnóstico sobre la relación entre el diseño de las plataformas, la regulación vigente y los límites de lo que los investigadores externos pueden realmente saber sobre cómo funcionan estos sistemas.

El problema de la transparencia no es retórico

La regulación europea —el Reglamento de Servicios Digitales (DSA, por sus siglas en inglés), las obligaciones de transparencia algorítmica, los requisitos de auditoría para plataformas de muy gran tamaño— sitúa a Europa en una posición aventajada respecto a Estados Unidos. Eisenstat lo reconoció sin ambigüedades. Pero añadió una condición que altera sustancialmente el diagnóstico optimista: esa ventaja regulatoria depende, en última instancia, de lo que las propias plataformas decidan mostrar.

Meta, puso como ejemplo, dispone de la biblioteca de anuncios más completa que existe en este momento. Pero también tenía CrowdTangle, la herramienta que permitía a investigadores externos analizar la difusión de contenidos en sus plataformas. “La mataron. CrowdTangle ya no existe”, se lamentó. La herramienta que hacía posible investigar a Facebook fue cerrada por Facebook.

La investigación que ella dirige desde Cybersecurity for Democracy, con sede en la Universidad de Nueva York, depende de poder acceder a datos sobre amplificación algorítmica. Sus propios estudios han demostrado que “los cambios en la amplificación cambian las experiencias de las personas con los debates públicos en las redes sociales de maneras muy distintas del contenido en sí que las personas están publicando”. No basta, por tanto, con analizar qué se dice. Hay que saber a quién se lo está enviando el algoritmo, con qué intensidad y por qué. Pero esos datos, en gran medida, los controlan las empresas.

Lo que los documentos internos muestran y las empresas no publican

Parte del material que Eisenstat utilizó en su presentación procede de documentos internos filtrados, principalmente a través de la exempleada de Facebook Francis Haugen. Algunos tan reveladores como una presentación interna fechada en 2016 en Alemania que mostró cómo el 64% de todos los grupos extremistas en ese país se habían formado a través de las herramientas de recomendación de la plataforma. “Esto vino de su propia investigación. No es de alguien del exterior”, subrayó.

El mismo patrón aparece en los datos sobre discurso político. Twitter, antes de convertirse en X, documentó en un informe interno que el contenido político recibía una amplificación sistemáticamente mayor cuando pasaba por su sistema de recomendaciones que cuando simplemente aparecía en una línea de tiempo cronológica. Y que los tuits publicados por cuentas de la derecha política recibían más amplificación que los de la izquierda. “Twitter lo sabía, y de hecho lo escribieron” en sus documentos internos, dijo Eisenstat.

En este contexto, la pregunta que se plantea no es solo si Europa tiene mejores leyes. Es si esas leyes pueden aplicarse de forma efectiva cuando los datos que acreditarían el incumplimiento están en manos de quien presuntamente incumple.

“Ahora mismo probablemente estamos en el punto más precario”

Durante la conversación posterior a su ponencia, el moderador le preguntó si la situación había mejorado desde 2018, el año del escándalo de Cambridge Analytica y el año en que ella fue contratada por Meta. Su respuesta fue directa: “No. Lamento decir esto, pero en este momento probablemente estamos en el punto más precario”.

La explicación que ofreció tiene lógica geopolítica. Estas empresas se construyen, crecen y se expanden principalmente desde Estados Unidos. Y es el “panorama legal permisivo estadounidense” el que ha permitido que ese modelo se exporte al resto del mundo. “Creo que arreglarlo en los Estados Unidos es imperativo. Y en este momento tenemos allí menos protecciones que en la última década”.

Esa asimetría tiene consecuencias directas para Europa. El DSA puede obligar a las plataformas a auditar sus algoritmos, a presentar informes de riesgo sistémico, a dar acceso a investigadores acreditados. Pero la arquitectura de negocio que produce los problemas —el modelo publicitario, el sistema de recomendación optimizado para el compromiso, la monetización del contenido radical— se diseña en California y se exporta globalmente con las mismas características.

El dividendo del mentiroso y la inteligencia artificial

Hacia el final de la conversación, Eisenstat insistió en un concepto bien conocido, el “dividendo del mentiroso”. La idea es que la proliferación de contenido sintético —vídeo, audio e imágenes generadas por inteligencia artificial— no solo produce falsedades. Produce duda sistemática sobre lo real. “El dividendo del mentiroso es cuando tienes tanta duda sobre lo que es real y lo que es falso” que es suficiente para que cualquiera pueda poner en duda algo, explicó. El beneficio para los actores de mala fe no es solo poder mentir. Es poder negar cualquier evidencia real alegando que es fabricada.

Sobre la inteligencia artificial en general, Eisenstat fue cautelosa en sus matices pero clara en su diagnóstico de fondo. Reconoció usar herramientas como ChatGPT o Claude, pero dijo que nunca permitirá que una IA agente acceda a su calendario o a sus datos personales. “Es una pelea desigual pedirle a un individuo que se enfrente solo a las empresas más intrusivas y poderosas de nuestra vida”, afirmó, y situó en los gobiernos la responsabilidad de establecer los límites. El trabajo del Estado, dijo, es proteger la vulnerabilidad de sus ciudadanos frente a prácticas que explotan sus datos más íntimos, “sin necesidad de prohibir estas empresas ni de ilegalizar ningún discurso”.

Sobre el modelo de negocio subyacente, fue más tajante. La mayoría de estas plataformas, dijo, venden comodidad: la respuesta más rápida, aunque no sepas si es precisa; la ropa en tu puerta antes que en la tienda. “Por toda esa comodidad, ¿a qué estás renunciando?”, preguntó. La misma herramienta de segmentación que te muestra las zapatillas que querías “también se está utilizando para dirigirte hacia un discurso político, para dirigir hacia ti teorías de la conspiración. No se trata solo de venderte zapatillas”.

Lo que Meta sabía sobre los niños

La investigación de Bruselas contra Meta por no proteger a los menores es sólo la punta del iceberg en la UE

La investigación de Bruselas contra Meta por no proteger a los menores es sólo la punta del iceberg en la UE

La sesión incluyó también una referencia a la reciente decisión de Ursula von der Leyen de apoyar las restricciones de acceso de menores a las redes sociales. Eisenstat señaló que los documentos internos de las propias plataformas “muestran una y otra vez que saben que están generando adicción en los niños, que les están sirviendo contenido dañino y que no están resolviendo estos problemas”. Sobre la prohibición por edad, matizó que cada país puede fijar su propio umbral, pero que “una prohibición por sí sola” no cree “que resuelva todo el problema”.

Los primeros veredictos de jurado en Estados Unidos contra Meta —en Nuevo México y Los Ángeles— han comenzado a establecer jurisprudencia sobre una distinción que Eisenstat considera central: que los daños no son solo consecuencia del discurso que circula por las plataformas, sino del diseño de las plataformas mismas. Su equipo participó como testigo en el caso de Nuevo México y parte de su investigación fue utilizada en ambos juicios.

Es la misma distinción que, si prospera en los tribunales estadounidenses, podría reforzar la base legal de la regulación europea. O que, si no prospera, dejará esa regulación dependiendo de lo que las empresas decidan, voluntariamente, dejar ver.

Más sobre este tema
stats