TikTok, Google, Mastodon y Bluesky: las redes que retan a Zuckerberg y Musk moderando (aún) contenido

Mark Zuckeberg y Elon Musk en un fotomontaje.

Mark Zuckerberg ha decidido quitarse la careta, dar un paso al frente y volver al foco mediático tras dos años a la sombra de Elon Musk. Mientras X ha acaparado la atención por todo lo que está mal en la plataforma tras la llegada del hombre más rico del mundo a sus oficinas, Meta había evitado los escándalos y las polémicas tomando decisiones que, hasta esta misma semana, iban en la dirección contraria a la red social de microblogging. Sin embargo, la inminente vuelta de Donald Trump a la Casa Blanca ha tirado a la basura todo este camino. Con un vídeo de poco más de cinco minutos, el líder supremo del imperio californiano ha pasado de líder tecnológico liberal a aliado del próximo presidente abrazando la políticas de —no— moderación del antiguo Twitter poniendo en riesgo los pocos avances de su compañía en la lucha digital contra la desinformación y el discurso de odio

"Vamos a deshacernos de los verificadores de datos y a sustituirlos por notas comunitarias similares a las de X", explicó Zuckerberg que en ningún momento ocultó la inspiración detrás de este movimiento. Según detalló el líder de la tecnológica propiedad de Facebook, Instagram, Threads y WhatsApp, este cambio responde a un "panorama político y social cambiante y un deseo de abrazar la libertad de expresión". 

Los expertos consultados por infoLibre coinciden en señalar que esta decisión supone un paso atrás en todo lo avanzado en materia de moderación de desinformación y de discurso de odio durante la última década. En el caso de Meta, lo que empezó con el escándalo de Cambridge Analytica en 2016 concluye ahora en lo que es un claro posicionamiento político a favor de Trump. 

"Supone un cambio bastante significativo en el modelo y darle continuidad a la filosofía que está implementando Musk", reconoce Leticia Rodríguez Fernández, investigadora y profesora de Relaciones Públicas en la Universidad de Cádiz. Para esta experta, esta decisión supone que la tecnológica tenga "muchísimo más control sobre los contenidos que se publican en las plataformas" y perder el "valor añadido" de un verificador externo que "está diariamente en contacto con la desinformación y está viendo qué campañas orquestadas están lanzándose". 

"El sistema de moderación de filtraje tiene que ser robusto, con unas normativas claras y con un sistema de gestión mucho más claro y directamente potente", sostiene Miquel Pellicer, experto en comunicación digital en la Universitat Oberta de Catalunya (UOC), que defiende que no se puede dejar en manos de "la experiencia de los usuarios" porque es "totalmente caótico e interesado" y "dispara los discursos de odio": "Estamos yendo por derroteros puramente populistas, demagogos y un campo bastante lleno de minas". Además, apunta que este cambio "pone en entredicho el papel que tienen actualmente las redes sociales en la construcción de los valores democráticos y de la construcción social".

¿Qué hacen otras plataformas?

La decisión de Meta coloca a Facebook, Instagram y Threads en el mismo bando que X en el tema de la moderación generando muchas dudas sobre qué pueden hacer el resto de plataformas, que ya son pocas fuera del universo de Zuckerberg. Para Pellicer, se abren dos escenarios futuros: "Por una parte, que haya un efecto contagio y, por tanto, que estas soluciones se adopten de forma masiva en otras redes, pero, por otro, me inclino más a pensar que a corto plazo no van a haber cambios sustanciales en el resto".

TikTok, por ejemplo, detalla que cuenta con una moderación automatizada que tiene como objetivo identificar contenido que incumple sus normas. Si detectan infracciones, estos vídeos pasan a los equipos de seguridad para una revisión adicional o una eliminación inmediata en el caso de desnudez o seguridad de los jóvenes. "Para apoyar una revisión justa y consistente del contenido que potencialmente no cumple las normas, los moderadores trabajan junto con nuestros sistemas de moderación automatizados y tienen en cuenta el contexto y los matices adicionales que la tecnología no siempre es capaz de captar", explican desde la red social china que modera contenido en más de 70 idiomas con equipos especializados para problemas complejos, como la desinformación.

Según los datos facilitados en el informe de transparencia para la Comisión Europea en abril de 2024, en los 27 Estados miembros eliminaron aproximadamente 13 millones de publicaciones, incluidos vídeos, retransmisiones en directo y anuncios. A finales de 2023, TikTok contaba en la UE con más de 6.000 moderadores.

Google, por su parte, también utiliza una combinación de sistemas automatizados y revisiones humanas. Según sus datos, en 2023 bloquearon 5,5 millones de anuncios, retiraron 17 millones de vídeos de YouTube y eliminaron 381.000 urls denunciadas por abuso de menores de edad en búsquedas. Según las cifras facilitadas a la Comisión Europea en su informe de transparencia publicado en agosto de 2024, la multinacional cuenta en España con 23 moderadores para Maps, 49 para Google Play, 51 para Google Shopping y 592 para YouTube. 

En el caso de Bluesky, según explicó en Wired en 2024 la propia CEO, Jay Graber, cuentan con "directrices comunitarias para evitar el acoso y la incitación al odio" y utilizan la moderación para crear "por defecto" un espacio "saludable y acogedor en la aplicación".

En Mastodon, por su parte, son sus servidores los que determinan las políticas de moderación de cada grupo: aunque hay algunos más laxos y otros mucho más estrictos, existen políticas de moderación básicas que se aplican a todos y que prohíben el contenido tóxico, ofensivo o relacionado con el nazismo. Su director ejecutivo, Eugen Rochko, calificó los cambios de Meta como "una preocupación para cualquiera que tenga conciencia": "El discurso de odio está prohibido".

"Al final, no es simplemente moderación humana o no, sino qué sistemas tienen las redes sociales desde un punto de vista plural para filtrar todos los comentarios o discursos de odio que se van produciendo y este sistema puede añadir automatización o estar vinculada a inteligencia artificial", explica Pellicer. 

"Los lectores añadieron contexto"

Pero, más allá de las críticas, ¿qué significa esta decisión en la práctica? Meta copiará las notas de comunidad, es decir, las correcciones de los usuarios que alertan de la falsedad de algunos de las publicaciones de X desde el verano de 2023 con el mensaje: "Los lectores añadieron contexto que consideraron que tal vez otras personas quieran saber". 

Sustituye así el programa de verificación de Meta que hasta esta misma semana estaba formado por agencias de todo el mundo que "identifican, revisan y califican la información errónea que se divulga" en las plataformas. En España, implementado en 2019, cuenta con EFE, Newtral o Maldita.es como verificadores. "Esta decisión es un paso atrás para quienes quieren ver una Internet que priorice la información precisa y confiable", asegura la Red Internacional de Verificación de Datos en una carta abierta a Zuckerberg. Según publica Business Insider, los contratos de verificación de datos de terceros en EEUU finalizarán en marzo y las diez organizaciones de verificación de datos seguirán recibiendo pagos hasta agosto. 

Por su parte, según detalla X, estas notas tienen como objetivo "crear un mundo mejor informado al empoderar a las personas en la red social para que, de manera colaborativa, agreguen contexto a los tuits potencialmente engañosos". Así, los "colaboradores", usuarios que tienen que registrarse en la iniciativa, pueden dejar este contexto que "no representa el punto de vista" de la tecnológica y que sus equipos no pueden ni "editar ni modificar".

Aunque Zuckerberg señaló que los sistemas creados por Meta para moderar sus plataformas cometen "demasiados errores", lo cierto es que el imperio ya ha adelantado que seguirán utilizando sistemas de moderación automatizados para abordar "infracciones más graves" de sus políticas como en casos de terrorismo, explotación sexual infantil, drogas, fraude o estafas. Aunque, cabe recordar que en 2023 el órgano independiente de la tecnológica denunció que la automatización provoca errores que afectan a los derechos humanos, como pasó en los primeros compases de la guerra en Gaza donde eliminó pruebas de crímenes de guerra.

El programa de verificación se mantiene en España (por ahora)

Aunque Zuckerberg enmarca este cambio solo para EEUU, en los minutos finales de su video también dice que Meta trabajará con Trump y "otros" para "contrarrestar las presiones de gobiernos que atacan a empresas estadounidenses y promueven la censura": "EEUU tiene las protecciones constitucionales más fuertes para la libre expresión, pero en otras regiones como Europa, América Latina y China, la situación es cada vez más restrictiva". 

A pesar de este ataque, sobre todo a la UE, desde el imperio de Zuckerberg aclaran que el cambio se ciñe exclusivamente a EEUU y que antes de expandirlas a más países, primero tienen que mejorar estas notas comunitarias y construir una comunidad les llevará tiempo. Fuentes de Meta detallan a infoLibre que no existe por el momento ningún plan para finalizar el programa de verificación por terceros en España y que antes de realizar cualquier cambio en la UE tendrán que revisar sus obligaciones conforme a las leyes comunitarias. 

¿Cómo afectará a la moderación en la UE?

En la UE, la Ley de Servicios Digitales (DSA por sus siglas en inglés) tiene entre sus principales objetivos luchar contra la desinformación y establece, entre otras medidas, multas si las plataformas no retiran en un tiempo determinado contenidos ilegales o incitadores del odio a requerimiento de la justicia.  

"Esta norma es bastante clara y es evidente que la política que están llevando las tecnológicas ahora mismo no es compatible con ella", defiende Rodríguez Fernández. "Bruselas ha establecido estándares claros para combatir la desinformación, proteger a los usuarios vulnerables y garantizar la transparencia en los algoritmos de moderación. Lo que está planteando Zuckerberg podría entrar en conflicto con la ley europea y podría forzar a Meta a justificar cómo las notas de comunidad cumplen con estos requisitos", sostiene Miquel Pellicer. 

Para Rodríguez Fernández, la decisión de Meta abre tres escenarios. El primero, sobre qué van a hacer las propias plataformas de Zuckerberg: "¿Van a tener dos modelos? Uno de, como dicen ellos, libertad de expresión, o más bien de desinformación, en aquellos países que lo toleren, mientras que en los otros o se adaptarán a las políticas locales o dejarán de tener actividad. Aunque dudo mucho que se vayan de Europa porque perderían muchísimos usuarios". 

El segundo, sobre el papel que deben jugar los políticos europeos. "No es solo una política de moderación de contenidos es la oportunidad para el ascenso de determinadas ideologías", explica Rodríguez Fernández, que recuerda que en otros momentos históricos determinadas empresas también apoyaron determinadas ideologías extremistas. Por ejemplo, Siemens explotó el trabajo forzado de los deportados en los campos de concentración nazis.

El tercer escenario que se abre, según Rodríguez Fernández, es si la UE debería plantearse tener redes sociales propias. "Quizás deberían empezar a pensar que si por un lado las empresas china tienen sus plataformas, Estados Unidos tiene las suyas, a lo mejor ese momento de que Europa empieza a hacer un tejido social, o sea un tejido en los entornos digitales propios", indica esta experta.

A X no le funcionan las notas de comunidad

Porque lo que está claro es que la UE tendrá, o debería tener, estas notas de comunidad en el punto de mira porque, por lo menos en el caso de X, diversas investigaciones externas ya han dejado claro en numerosas ocasiones que no funcionan. "No veo muy claro que las notas de comunidad vayan a proteger a los usuarios ni en discursos de odio ni en planteamientos de alguna forma de agresión a la vulneración de libertades sociales o cívicas", sostiene Pellicer. 

Ya en junio de 2023, el Instituto Poynter calificó estas notas de "fracaso" y "mediocres" para moderar la desinformación ya que, durante el periodo de prueba, los usuarios visualizaban sólo el 8,5% de estos mensajes. 

Con el inicio de la guerra en Gaza y ya plenamente operativas, una investigación de Mashable descubrió que estas notas suelen ser vistas entre cinco y diez menos que la falsedad que corrige ya que o bien estas publicaciones se difunden sin ninguna alerta, aparecen demasiado tarde o incluso desaparecen. Un informe de Bloomberg en otoño de 2023 también detectó que X no siempre mostraba estos mensajes en publicaciones virales con información falsa y que su tiempo de aparición era de siete horas o incluso días. 

Otra investigación del Centro para Contrarrestar el Odio Digital (CCDH) de 2024 llegó a conclusiones similares. Por un lado, que el 74% de las notas de comunidad sobre desinformación electoral en EEUU nunca se muestran a los usuarios. Y, por otro, que aquellas publicaciones sin estas alertas que promueven narrativas falsas sobre la política estadounidense obtuvieron miles de millones de visitas superando en trece el alcance de sus contrapartes verificadas. 

Más discurso de odio gracias a menos restricciones y más automatización

¿Puedes plantar de una vez por todas a Musk y llevarte todos tus tuits en la mochila? Sí, y también tus contactos

¿Puedes plantar de una vez por todas a Musk y llevarte todos tus tuits en la mochila? Sí, y también tus contactos

Pero los cambios en Meta no se ciñen solo a la moderación, Facebook, Instagram y Threads también eliminarán una serie de restricciones actuales en torno a temas como la migración o la identidad de género. En concreto, según la nueva política sobre conductas, ya disponible en su web, se permitirá llamar "enfermos mentales" a personas LGTBIQ+, así como suprimir una parte en la que se especificaba que estaba prohibido referirse a las mujeres como "objetos del hogar o propiedad".

Meta también comenzará de nuevo a incorporar gradualmente contenido político a los feeds de los usuarios en Facebook, Instagram y Threads solo un año después de bloquear de forma predeterminada estas recomendaciones. Si en 2023, el jefe de Instagram, Adam Mosseri, decidía que su objetivo pasaba por crear un "lugar menos iracundo para las conversaciones", esta misma semana afirmó que "se ha demostrado que no es práctico trazar una línea roja sobre lo que es y lo que no es contenido político".

El imperio tecnológico también trasladará sus equipos de confianza, seguridad y moderación a Texas porque California parece demasiado "parcial". Sigue así el mismo camino que Musk que trasladó SpaceX, Tesla y X a este estado en respuesta a la aprobación en junio de un proyecto de ley en California destinado a brindar apoyo a los estudiantes LGBTQ+. Ahora, tal y como señala The Verge, los empleados que trabajen para Meta en Texas estarán sujetos, por ejemplo, a las leyes contra el aborto más estrictas de EEUU y también a la prohibición a tratamientos de afirmación género para menores. 

Más sobre este tema
stats