¿Sirve para algo el 'tribunal supremo' de Facebook? La red social aplica menos de la mitad de sus sugerencias

Imagen de archivo de una protesta en Washington contra Facebook.

El tribunal supremo de Meta (antes Facebook) está de aniversario estas semanas. El consejo asesor de contenido u Oversight Board, que así se llama oficialmente este órgano independiente del imperio tecnológico de Mark Zuckerberg, anunció a principios de diciembre de 2020 sus primeros seis casos para deliberar. Solo un par de semanas después, en enero de 2021, anunció sus primeras resoluciones. Este organismo independiente es el encargado ahora de aclarar y revisar determinadas decisiones "complejas e importantes" en materia de contenido adoptadas por la compañía y relacionadas con qué contenido elimina, cuál conserva y los motivos detrás. "Es un paso interesante y necesario", reconoce Miquel Pellicer, consultor en comunicación digital en la Universitat Oberta de Catalunya (UOC), sobre todo en una coyuntura en la que todas las redes sociales, y no solo las que son propiedad de la empresa californiana, están "muy desgastadas" y tienen "que encarar muchos retos en 2022". 

El Oversight Board examina tanto publicaciones de Facebook como de Instagram. Aunque, según recoge el informe de transparencia de este consejo asesor correspondiente al tercer trimestre de 2021, la práctica totalidad de solicitudes presentadas por los usuarios, el 99,3%, se referían a contenido compartido en la red social primigenia. En cambio, sólo el 0,7% de los casos estaban relacionados con la aplicación de fotografías. WhatsApp, también propiedad de la tecnológica, se ha quedado fuera, por el momento y hasta nuevo aviso, de las quejas que se resuelven. 

En total, tras analizar los dos informes de transparencia que este tribunal supremo ha presentado hasta este momento (el primero publicado en octubre de 2021, y que se corresponde con el cuarto trimestre del 2020 y el primer y segundo trimestre de este año, y el segundo, presentado en diciembre, y que abarca el tercer trimestre), este organismo independiente ha aceptado más de 860.000 solicitudes de usuarios para examinar las decisiones de moderación de contenidos de la plataforma. "Dado que el consejo no puede atender cada apelación, daremos prioridad a los casos que puedan afectar a muchos usuarios de todo el mundo, que sean fundamentales para el discurso público o que planteen interrogantes importantes sobre las políticas de Facebook", explicó este órgano en un comunicado en el que detalló sus seis primeros casos.

Esta también es una de las principales dificultades que observa Pellicer consultado por infoLibre. "De entrada, parece útil al ser un órgano que no es solamente consultivo. El problema es el volumen de contenido", admite este experto que apunta que "una cosa es que sea útil y otra cosa es que tenga la suficiente capacidad de gestión y rapidez". 

Tumbó el 70% de las decisiones de Meta

Aunque, sólo analizó 17 casos concretos —ninguno sobre España—, de los cuales anuló doce que había tomado la tecnológica y sólo avaló su decisión en cinco. Es decir, tumbó el 70% de las resoluciones de Meta. "Creo que le da relevancia a sus decisiones, porque las contrasta. Las pone en valor", afirma Pellicer, que reconoce que se tiene "cierto sesgo en pensar que todo lo que hace Facebook es malo, y no es el caso".

Sin duda, de estos 17 casos, el más mediático fue el referente a la cuenta de Donald Trump, que el imperio de Zuckerberg suspendió de Facebook e Instagram tras el ataque al Capitolio del 6 de enero. Para tomar esta decisión, el Oversight Board realizó 46 preguntas de las que siete no fueron respondidas por la compañía. En esta ocasión, el consejo asesor avaló la decisión de mantener suspendida la cuenta del expresidente de EEUU.  

No obstante, y a pesar de que ratificó la decisión de Meta, criticó que la sanción "no siguió un procedimiento claro y publicado", ya que las suspensiones "indefinidas" no están descritas en las políticas de contenido de la empresa. "Hay cosas que Facebook puede explicar mejor", explica Pellicer. Asimismo, también recomendó a la tecnológica revisar la decisión en un plazo de seis meses y detallar públicamente su política de sanciones. En menos de un mes, anunció que suspendía la cuenta durante dos años y que reevaluará la situación el 7 de enero de 2023. 

Pero, antes de llegar al Oversight Board, durante el proceso de selección de casos, Meta los revisa para comprobar si cumplen "con los requisitos para someterse a revisión en virtud de los estatutos". A finales de junio, según refleja el informe correspondiente con el primer y segundo trimestre de 2021, identificó 38 en los que "habían emitido una decisión original incorrecta en relación con el contenido". En el tercer trimestre, la cifra fue de 13. En la mayoría, excepto en aquellos que los propios usuarios habían suprimido ya, se restauró la publicación. 

"Sin las acciones del consejo, las decisiones incorrectas de Meta probablemente seguirían vigentes", defiende este organismo. Estos casos estaban relacionados casi la mitad con las normas comunitarias sobre lenguaje que incita al odio y casi un tercio con personas y organizaciones peligrosas.

Sólo implementa el 40% de las recomendaciones

Además de resolver estas solicitudes, con cada caso que analiza, este tribunal supremo le envía a Meta una serie de recomendaciones sobre la política de contenido relevante de la compañía. En total, hasta el 30 de septiembre, emitió 77. De ellas, Facebook sólo implementó de forma total o en parte el 40%, es decir 31 (24 totalmente y 7 parcialmente). La tecnológica aseguró que estaba "evaluando su viabilidad" en el 26% de los consejos, mientras que afirmó que estaba "comprometida con la acción" en el 17%. En el 6% de las advertencias explicó que se correspondían con "trabajo que ya está haciendo". Asimismo, en el 5% dijo que no correspondía "ninguna medida" y en otro 5% no ofreció ningún tipo de respuesta. 

A pesar de estas cifras, Pellicer le da "un voto de confianza, entrecomillas" al Oversight Board y a la propia Meta. "Sí que se toma en serio a este órgano. En tecnología, parece que las decisiones se toman de la noche al día y es más complejo. Tomar ciertas decisiones no es fácil", sostiene . "Al final, tiene que buscar un nuevo planteamiento tanto a niveles legales como éticos. Facebook es un transatlántico que se supone que quiere cambiar su dinámica", reconoce este consultor en comunicación digital. 

Mayoría de casos sobre lenguaje que incita al odio y sobre bullying y acoso

¿Y qué tipo de publicaciones se encuentra este consejo asesor para analizar? Hasta junio, el 36% de los casos enviados estaban relacionados con el contenido y las reglas de Facebook sobre lenguaje que incita al odio. En cambio, el mayor porcentaje de julio a septiembre, el 34%, fue sobre las reglas sobre bullying y acoso. En el informe del tercer trimestre, se alerta que "el porcentaje de casos relacionados con reglas sobre violencia e incitación aumentó en dos tercios entre el segundo y el tercer trimestre, pasando de alrededor del 18% a cerca del 30%". "Las redes sociales no pueden ser unas alcantarillas y tienen que ser más responsables", argumenta Pellicer.

Esta no es la única advertencia que hace este organismo independiente en los informes que ha presentado hasta el momento. En el primero, le dio un fuerte tirón a Facebook asegurando que las reglas de la plataforma "no son claras para los usuarios". Asimismo, afirmó que "la transparencia es claramente un área en la que debe mejorar con urgencia", eso sí matizaron que querían "ser parte de la solución". Este llamamiento lo volvieron a realizar en el segundo informe en el que este consejo asesor insistió en exigir a Meta una mayor transparencia en torno a sus políticas y su aplicación. 

¿Cómo toma sus decisiones este tribunal supremo?

Esta transparencia que le reclaman es una de las razones detrás de la creación de esta especie de tribunal supremo, del que Mark Zuckerberg empezó a hablar en 2018. Entre los objetivos que persigue el imperio californiano con este movimiento es contar con un órgano independiente que le ayude a tomar ciertas resoluciones ya que la empresa recién bautizada como Meta "no debería tomar por sí sola tantas decisiones importantes sobre libertad de expresión y seguridad".

Con el objetivo de ofrecerle la mayor independencia posible, su sede se encuentra en Londres, a miles de kilómetros de la sede de Meta, localizada en la californiana localidad de Menlo Park. Eso sí, según publicó The New York Times, la compañía lo estaría financiando con un fideicomiso de 130 millones de dólares y, no hay que olvidarse, que sus altos ejecutivos tuvieron un papel importante en su formación.

"Esto es una evolución. Me gustaría pensar que es más que una operación de marketing ya que hay nombres de mucha relevancia formando parte de este órgano", afirma Pellicer. Actualmente, este organismo independiente está formado por 20 miembros, entre los que se encuentran académicos y líderes políticos de todo el mundo. Entre los nombres más relevantes están los de Alan Rusbridger, ex redactor jefe de The Guardian; la ex primera ministra danesa Helle Thorning-Schmid; la nobel de la paz Tawakkol Karman, o la directora de la cátedra de libertad de expresión de la UNESCO en la Universidad de los Andes, Catalina Botero-Marino, que en una entrevista en El País aseguró que su labor es "ser ingratos con Facebook".  

Estos 20 miembros, que está previsto que sigan aumentando a lo largo de los próximos años, no analizan conjuntamente todos los casos que se reciben. En concreto, cuando el Oversight Board recibe el caso, selecciona a cinco personas, uno de ellos del país del que proceda la disputa, para que deliberen primero sobre cada instancia, además de debatir y examinar los comentarios que pueden hacer todos los usuarios. Cuando el panel más reducido de miembros llega a una mayoría, la decisión se lleva al consejo para una votación general.

En principio, y si Meta sigue sus reglas, cumplirá con el mandato que realice el Oversight Board, aunque tal y como recuerda The New York Times, no hay ningún organismo que haga cumplir este acuerdo. Es más, Facebook ya ha rechazado una recomendación del consejo asesor sobre la retirada de una publicación sobre el covid-19. ¿La explicación? La tecnológica reconoce que las recomendaciones son diferentes de las sentencias y no son vinculantes.

Los seis primeros casos del 'Tribunal Supremo' de Facebook: de los 'pezones contra el cáncer' a una cita de Goebbels para alertar contra Trump

Los seis primeros casos del 'Tribunal Supremo' de Facebook: de los 'pezones contra el cáncer' a una cita de Goebbels para alertar contra Trump

Más sobre este tema
stats