Directo
Ver
La gran paradoja del 21A: un Parlamento más soberanista, una ciudadanía menos independentista

Lo mejor de Mediapart

La Justicia europea impulsa la censura automatizada

El centro de datos que Facebook tiene en Dublín (Irlanda).

¿Pueden los “contenidos” considerados ilícitos en un país de la Unión Europea ser suprimidos al mismo tiempo en los demás Estados miembros? ¿Y en el resto del mundo? La respuesta es sí: no hay nada en la legislación europea que impida que un tribunal nacional exija a una plataforma mundial la eliminación –o que haga invisible– de una publicación en todo el mundo, según dictaba esta semana el Tribunal de Justicia de la UE. El tribunal va aún más lejos y también autoriza a que se ordene no sólo la eliminación de contenido idéntico, sino también “equivalente”.

La sentencia del TJCE supone otra china en el zapato de Facebook, compañía denunciada en Austria, cuando la eurodiputada de los verdes Eva Glawischnig-Piesczek, presidenta del grupo parlamentario Grünen y portavoz del partido, pidió a Facebook que eliminara un comentario malicioso. Los defensores de la libertad de expresión también la consideran alarmante.

“El 3 de abril de 2016, un usuario de dicha red social compartió en su página personal un artículo de la publicación austriaca en línea oe24.at [...] Asimismo, dicho usuario publicó, en relación con este artículo, un comentario degradante sobre la demandante, acusándola de ser una “sucia traidora del pueblo”, una “idiota corrupta” y miembro de un “partido fascista”, según recordó en junio el Abogado General del Tribunal, Maciej Szpunar, en sus conclusiones.

Dado que Facebook no accedió a la solicitud de la diputada, realizada en julio, ésta recurrió a la Justicia, que “adoptó medidas cautelares con fecha de 7 de diciembre de 2016, ordenó a Facebook Irlanda que cesara inmediatamente de [...] publicar o difundir fotos de la demandante [...], ya que el mensaje de acompañamiento contenía las mismas alegaciones o alegaciones de contenido similar”.

De esa manera, Facebook hacía inaccesible en Austria los contenidos publicados inicialmente.

En fase de apelación, añade el Abogado General, el Tribunal Superior Regional de Viena “confirmó el auto dictado en primera instancia en lo tocante a las alegaciones idénticas” y “no accedió a la solicitud de Facebook Ireland de limitar el auto provisional a la República de Austria”. Sin embargo, limitó la obligación de cesar la difusión de alegaciones de contenido equivalentes a las que se señalaron a Facebook; en otras palabras, Facebook no estaba obligada a supervisar activamente para evitar la reaparición de comentarios idénticos o “equivalentes”, es decir, del mismo tipo.

El tribunal de Viena dejaba descontenta a la dos partes, a Facebook y a la diputada, y el caso acabó en el Tribunal Supremo austriaco, que decidió recurrir al Tribunal de Justicia de la UE para averiguar hasta qué punto, desde el punto de vista geográfico, era posible obligar a la plataforma a eliminar o hacer invisible un contenido juzgado ilícito; y qué se debía hacer con los “contenidos equivalentes”.

Y a esas preguntas daba respuesta este 3 de octubre el TJCE.

¿Puede un país de la UE solicitar una retirada global? Sí, según recoge lisa y llanamente la sentencia. Y la plataforma debe actuar cuando tenga conocimiento de la existencia de contenido ilícito o de lo contrario incurrirá en una infracción.

Pero el tribunal va aún más lejos y alude también a los contenidos “equivalentes”, definidos como las “informaciones cuyo contenido, si bien transmite sustancialmente el mismo mensaje, está formulado de una manera ligeramente diferente, debido a las palabras utilizadas o a su combinación, en comparación con la información cuyo contenido ha sido declarado ilícito”. Con ello se pretende evitar que la persona afectada “tenga que multiplicar los procedimientos para obtener el cese de las actuaciones de las que es víctima”.

Para eludir la prohibición del control generalizado, estos contenidos equivalentes deberán cumplir algunas condiciones: deben incluir “el nombre de la persona afectada” y no necesitar “una evaluación autónoma” de la plataforma. Según el tribunal, la plataforma podrá “recurrir a técnicas y a métodos de investigación automáticos" sobre elementos específicos.

Aquí es donde, para los defensores de la libertad, la sentencia podría ser peligrosa para la libertad de expresión. Una posición que también defiende... Facebook, para quien la decisión “socava el principio según el cual un país no tiene derecho a imponer sus leyes de libertad de expresión a otro país. También abre la puerta a la imposición de obligaciones a las empresas de internet para que controlen proactivamente el contenido y luego interpreten si es ‘equivalente’ al contenido que se ha considerado ilegal”.

“Para lograrlo, los tribunales nacionales tendrán que definir muy claramente qué se entiende por “idéntico” y “equivalente” en la práctica. Esperamos que los tribunales adopten un enfoque proporcionado y mesurado para evitar tener un efecto paralizador sobre la libertad de expresión”, continúa Facebook.

Para entenderlo mejor, Mediapart (socio editorial de infoLibre) entrevista a Chloé Berthélémy, que se ocupa de las cuestiones de moderación y responsabilidad de las plataformas para el EDRi (European Digital Rights), asociación que reúne a varias organizaciones europeas de defensa de la libertad (en este enlace se puede leer en inglés la reacción de EDRi).

PREGUNTA: ¿La obligación de buscar contenido equivalente o contenido publicado por otros autores para que no esté disponible, en su opinión, conllevará o reforzará el desarrollo de la censura automatizada? ¿Es un peligro para la libertad de expresión? ¿De qué manera?

RESPUESTA: La decisión del Tribunal allana el camino para el uso de herramientas de moderación automatizadas. El Tribunal de Justicia considera que la búsqueda de contenidos idénticos y equivalentes se ajusta al artículo 15 de la Directiva europea sobre el comercio electrónico, que prohíbe la imposición de un control generalizado del contenido. Según ella, esto sólo es posible si la plataforma utiliza técnicas de filtrado automatizadas y no a una “evaluación autónoma”, lo que probablemente significa la intervención de un humano. Para EDRi, esto es una aberración.

Las técnicas de moderación automatizada son incapaces de captar y reconocer el significado del mensaje que se transmite, especialmente si el mensaje se repite en un contexto diferente, como el periodístico o de parodia. Existe un gran riesgo de restringir la libertad de expresión suprimiendo la expresión legítima.

La posibilidad de ampliar la obligación de bloqueo a contenidos equivalentes es especialmente problemática: nos preocupan las críticas expresadas por los opositores políticos y los/las defensores de los derechos humanos. En general, no se analizan las repercusiones del uso de filtros automáticos de contenidos en los derechos humanos, incluidos el derecho a la protección de datos y el derecho a la intimidad. Por ejemplo, si el contenido difamatorio declarado ilegal por un tribunal contiene una foto, Facebook tendrá que escanear cada foto publicada para reconocer la misma o similar con tecnologías de reconocimiento facial.

Aunque el Tribunal trata de lograr un equilibrio entre los diversos intereses en juego, es sumamente lamentable que sólo tenga en cuenta la reputación de la persona objeto de las declaraciones difamatorias y la carga de una obligación excesiva impuesta a la plataforma. Ignora por completo el interés de los usuarios cuya libertad de expresión podría verse restringida por el uso de filtros de contenido. El Tribunal tuvo la oportunidad de hacer una distinción clara y precisa entre la supervisión generalizada y la obligación de supervisión de casos específicos, pero prefirió promover el uso de filtros automáticos para resolver el problema. Esto es muy decepcionante.

P: El hecho de que esta decisión se aplique a contenidos ya reconocidos como ilícitos por un tribunal europeo, ¿es una salvaguardia, un límite suficiente?R: 

De hecho, es bueno que la obligación se limite al contenido considerado ya ilegal por un juez. Pero este límite no es suficiente. Para que la obligación de eliminar el contenido permanente se ajuste a los derechos fundamentales, no debe fomentarse el uso de técnicas de filtrado automatizado, ya que en todos los casos de contenido ilegal, excepto quizás en el caso del material que ilustra el abuso de menores, el contexto de la publicación es esencial en la evaluación del mismo. La obligación también debe estar estrictamente limitada en el tiempo. Por último, la definición de contenido idéntico debe ser clara: ¿se trata de una mera acción de compartir (botón “compartir”)? ¿Se puede contemplar también la repetición parcial de las palabras?

P: ¿A qué normas internacionales se refiere el Tribunal cuando afirma que “habida cuenta de la dimensión mundial del servicio electrónico, el legislador de la Unión ha considerado necesario garantizar la coherencia de las normas de la Unión en este ámbito con las normas aplicables a escala internacional”?R:

El Tribunal se refiere al hecho de que, en todo el mundo, otros Estados establecerán un equilibrio entre la libertad de expresión y la protección de una persona contra los insultos o la difamación diferentes de los realizados por el tribunal austríaco. Por ejemplo, en Estados Unidos el contenido probablemente sería legal. Creo que el Tribunal se refiere al principio de cortesía internacional.

P: En su opinión, ¿existe contradicción entre esta sentencia y la relativa al derecho al olvido dictada una semana antes, teniendo en cuenta que éste no se aplicaba a escala mundial?R

: No creo que haya una contradicción en sí misma entre esta sentencia y la sentencia anterior sobre el derecho al olvido. En ambos casos, el Tribunal de Justicia señala que el derecho comunitario no determina si la obligación de bloqueo debe limitarse al Estado miembro o al conjunto del territorio. En el caso del derecho al olvido, el Tribunal dice que la obligación se aplica al menos a la Unión Europea, ya que se trata del Reglamento General de Protección de Datos. Pero no hay nada en la legislación europea que prohíba la aplicación mundial de un mandato judicial.

El problema es que, en esta sentencia, el Tribunal no desarrolla en absoluto criterios que ayuden al tribunal austriaco a determinar si debe o no ampliar la obligación a todo el mundo. En la sentencia anterior, el Tribunal dijo al menos que era necesario tener en cuenta las diferencias culturales de otros países (si se siguen pronunciando a favor de la protección de datos o a favor de la libertad de expresión y del acceso a la información) y prestarles atención cuando decidan ampliar la obligación a nivel mundial.

El derecho a no ser tratado como un “traidor” no está reconocido en todo el mundo, ni tampoco el derecho a dejar de aparecer en un motor de búsqueda. Hay que tener en cuenta la diversidad de culturas jurídicas. ______________

Zuckerberg defiende que los gobiernos regulen "los temas importantes en Internet" y no solo las empresas

Zuckerberg defiende que los gobiernos regulen "los temas importantes en Internet" y no solo las empresas

  Traducción: Mariola Moreno

Leer el texto en francés:

Más sobre este tema
stats