Cuando el odio es viral o cómo las redes sociales amplifican la ola ultra y distorsionan la realidad
La normalidad vuelve poco a poco a Torre Pacheco tras diez días de tensión después de que los ultras convirtiesen a esta localidad murciana en una auténtica olla a presión. La excusa, esta vez, fue la agresión sufrida por un vecino de 68 años. Antes de que la violencia llegase a las calles, en redes sociales, sobre todo a través de X, Telegram y YouTube, se regó el racismo, se señaló a la comunidad migrante y se hicieron llamadas "a cazar magrebíes". Se repite así un patrón ya habitual durante los últimos años y un ejemplo más de una lacra totalmente enraizada en las entrañas de estas plataformas que prometieron en sus inicios conectar al mundo y que han terminado convertidas en altavoces del discurso del odio y de la desinformación.
En el caso de Torre Pacheco, el odio ha saltado de las redes sociales a unas calles que, a pesar de lo que nos venden, no siempre son el reflejo de lo que pasa en la esfera digital. Según un estudio de los profesores Claire E. Robertson, Kareena S. del Rosario y Jay J. Van Bavel de la Universidad de Nueva York publicado a finales de 2024, las discusiones en línea están dominadas por una minoría "sorprendentemente pequeña, extremadamente vocal y no representativa". En concreto, los autores calculan que si bien sólo el 3% de las cuentas son tóxicas, producen el 33% de todo el contenido que "genera descontento, difunde desinformación y provoca indignación en línea".
Además, y aquí está lo más preocupante, sesga las "metapercepciones de la mayoría de los usuarios" conduciendo a una falsa polarización y normalizando comportamientos peligrosos. "Es evidente que las redes sociales son menos un reflejo neutral de la sociedad y más un espejo de feria", aseguró Jay J. Van Bavel en un reciente artículo en The Guardian en el que explica que en estas plataformas no se obtiene una "muestra representativa de opiniones" sino "una avalancha de contenido extremo y con una fuerte carga emocional": "A muchos nos hacen creer que la sociedad está mucho más polarizada, enfadada y engañada de lo que realmente está".
Este comportamiento no es algo arbitrario, sino que es una consecuencia de cómo están diseñadas las redes sociales para mantener a los usuarios enganchados. "Los algoritmos priorizan el contenido que genera más interacción, y lo que más mueve a la acción a las personas no es el relato moderado, sino la aparición de las emociones morales como la rabia, el miedo o la indignación", reconoce Lucía Andaluz, profesora doctora en la Universidad Europea y experta en desinformación.
Completa esta idea Leticia Rodríguez Fernández, investigadora y profesora de Relaciones Públicas en la Universidad de Cádiz: "Las emociones más negativas tienden a generar una reacción más rápida y con mayor durabilidad en el tiempo que hacen que contenidos tengan mayor número de interacciones y, por tanto, alcancen mayor visibilidad". Para esta experta, no solo influye el propio diseño del algoritmo, también es relevante el "comportamiento humano", la "coyuntura sociológica y política" y el anonimato en la red. "Hay cosas que uno a lo mejor no diría en alto por miedo a ser juzgado, pero que en la red, al encontrarnos en situaciones de anonimato sí que se dicen", sostiene.
El 90% de las opiniones políticas están representadas por menos del 3% de los tuits
Esta polarización se multiplica en los debates políticos. Según el estudio de los investigadores de la Universidad de Nueva York, alrededor del 90% de las opiniones políticas están representadas por menos del 3% de los tuits, ya que el 97% de las publicaciones políticas proceden del 10% de los usuarios.
"Los contenidos con narrativas extremistas se viralizan con mayor alcance porque apelan fuertemente a nuestras emociones más viscerales y simplifican realidades complejas. Y lo hacen a través de la manipulación de datos y hechos inventados o descontextualizados", sostiene Andaluz. En cambio, según explica, las voces "más moderadas o matizadas" suelen ser "castigadas por el sistema, porque reciben menos alcance, menos likes y menos clics, y este hecho, distorsiona la forma en la que la audiencia percibe lo que está pasando".
Es evidente que las redes sociales son menos un reflejo neutral de la sociedad y más un espejo de feria
¿Hasta qué punto esta amplificación de voces extremas cambia la percepción social? Según detalla Rodríguez Fernández, esto está relacionado con "la cámara eco y el filtro burbuja" que se genera en las redes sociales. "Por un lado, terminamos consumiendo contenidos relacionados con nuestro sesgo ideológico y esto lo refuerza aún más. Y, por otro, el algoritmo nos suministra publicaciones que van conforme al sesgo", señala esta experta.
"Cuando vemos odio una y otra vez, acabamos anestesiados. Lo empezamos a ver como la nueva normalidad, cuando no lo es", avisa Andaluz que apunta que el problema es que si no se confrontan estos contenidos con "datos, hechos verificados e información contrastada" se construye "un relato paralelo falso" y "una especie de postverdad que acaba instalándose en la opinión pública, aunque esté muy lejos de lo que realmente está pasando". "Así es como se normalizan las ideas más radicales: no porque sean mayoría, sino porque ocupan más espacio. Y eso, si no se corrige, tiene un impacto directo en cómo miramos al otro, cómo votamos o incluso cómo actuamos en la calle", admite.
El discurso de odio mata
Y así, volvemos a Torre Pacheco que, como decíamos antes, no es un caso aislado. Si nos remontamos en el tiempo, en 2017, está más que documentado cómo Facebook fue clave en la limpieza étnica de 2017 en Myanmar, donde miles de rohinyás fueron víctimas de un linchamiento. En 2019, el político alemán Walter Lübcke fue asesinado por un neonazi por su postura prorrefugiados tras recibir amenazas de muerte a través redes sociales y filtrarse en una de estas plataformas la dirección de su casa.
Más recientemente, hace justo un año, en Reino Unido, en un caso muy similar al de Torre Pacheco, la difusión de un bulo sobre el origen del asesino de tres menores en Southport provocó un estallido de odio que se extendió por varias ciudades británicas. En España, se intentó pocos días después, aunque sin éxito, tras el crimen del niño Mateo en Mocejón (Toledo).
El recorrido del odio en redes: de X a Telegram y a YouTube
Ahora, en cambio, en Murcia sí que prendió la mecha y los disturbios tomaron las calles tras conquistar la esfera digital. "Las redes sociales son el perfecto escenario en el que el odio se normaliza y, al mismo tiempo, sirven como canal logístico para que se traduzca en acciones concretas. En Torre Pacheco lo hemos visto: primero el relato falso de que los migrantes son una amenaza y luego los mensajes que incitan a cazarlos", explica Andaluz.
Hay cosas que uno a lo mejor no diría en alto por miedo a ser juzgado, pero que en la red, al encontrarnos en situaciones de anonimato sí que se dicen
Los primeros tuits virales se publicaron entre los días 9 y 10 de julio por cuentas vinculadas a Vox, como HerQles, La Gaceta o Revuelta, y a influencers ultras como Vito Quiles. De X, saltaron a grupos de Telegram, convertida ya más en una herramienta de organización y coordinación para los ultras que en una de difusión de bulos. "Esta app permite que se creen canales con miles de personas donde se comparten mensajes que podrían considerarse como delito en cualquier otro espacio", apunta Andaluz.
Por ejemplo, el eurodiputado Luis Alvise Pérez difundió en su Telegram el retrato con nombre y apellidos de cinco personas a las que culpó de la agresión. Por su parte, en los canales de Deport Them Now, muchos cerrados tras esta semana, se comenzaron a lanzar mensajes para hacer "cacerías" contra migrantes en Torre Pacheco. "Esto es como la película de La Purga, son apelaciones a la movilización y a la agitación social dentro del principio de unanimidad: veo que hay mucha gente que piensa como yo, por lo tanto tengo razón, y tengo la capacidad de unirme a esas personas", asegura Rodríguez Fernández.
Y la guinda del pastel: la inteligencia artificial
YouTube fue la tercera pata de la estrategia de la ultraderecha para propagar sus mensajes racistas. Incluso difundiendo contenidos falsos de la agresión al vecino de Torre Pacheco. Deport Them Now, por ejemplo, tenía en sus cuentas en redes sociales varios vídeos realizados con inteligencia artificial. Tal y como recogió La Marea, uno de estas publicaciones mostraba a un grupo de musulmanes en un campo de exterminio siendo conducidos a las cámaras de gas y asesinados por Santiago Abascal, al que han caracterizado vestido de oficial nazi.
¿Cómo afecta la irrupción de la inteligencia artificial a la situación actual en las redes? "La empeora y la agrava", reconoce Rodríguez Fernández que recuerda que actualmente muchos partidos la usan para "exponer las miserias de los otros" aunque saben que "la gente no va a creer que es real" pero "lo hacen para polarizar". Pero también hay otro tipo de usos. "La IA permite generar bulos mucho más sofisticados como audios falsos, imágenes creadas desde cero, vídeos manipulados con apariencia real, dificultando la detección y confundiendo a la ciudadanía", argumenta Andaluz.
No obstante, esta profesora también señala que se debe ver como una oportunidad ya que podría ser "una aliada clave en el fact-checking". "Puede ayudarnos a frenar la desinformación antes de que se haga viral", apunta Andaluz.
YouTube apenas retiró un 5% del contenido con discurso de odio y X, un 9%
Así, tras la situación vivida en Torre Pacheco, el Gobierno anunció esta misma semana que convocará a una reunión urgente a las principales plataformas de redes sociales en España para exigirles una respuesta más ágil y contundente ante la proliferación de contenidos que incitan al odio. En total, según recoge los datos del último boletín correspondiente a junio del Observatorio Español del Racismo y la Xenofobia (Oberaxe), el 29% de los mensajes reportados fueron eliminados. Aunque la ministra de Inclusión, Seguridad Social y Migraciones, Elma Saiz, advirtió sobre las tasas especialmente bajas de X y YouTube.
Los contenidos con narrativas extremistas se viralizan con mayor alcance porque apelan fuertemente a nuestras emociones más viscerales y simplifican realidades complejas
La baja colaboración de X, que retiró un 9% de este contenido de odio, no es sorprendente en la era de Elon Musk. "Se ha convertido en un caso paradigmático de cómo una plataforma puede fallar, o directamente renunciar, a frenar la desinformación", asegura Andaluz que recuerda que han suprimido políticas clave contra las fake news y han dejado la verificación en manos de las Notas de Comunidad.
Las redes jalean el avance del odio: tras conquistar X, gana terreno en TikTok, Instagram y Youtube
Ver más
A la ausencia total de moderación y de políticas, se suma un algoritmo que juega a favor de las posturas más radicales. Una investigación de profesores de las universidades de California y del Sur de California publicado en febrero de 2025 concluyó que el discurso de odio aumentó un 50%, que la transfobia experimentó un crecimiento semanal del 260% mientras que los mensajes racistas lo hicieron un 42% y los homófobos, un 30%. "Los contenidos sugeridos normalmente son extremos, contra la migración o contra la mujer", explica Rodríguez Fernández.
En el caso de YouTube, que apenas retiró un 5%, es, en cambio, llamativo ya que Google cuenta con una clara política de moderación de publicaciones que no permite difundir mensajes que inciten al odio o promuevan la violencia. "Sigue recomendando vídeos que promueven el odio o el negacionismo", apunta Andaluz que señala que esto no es solo "un problema de vigilancia técnica" sino también de "rendición de cuentas, de compromiso de estas plataformas". "Se desentienden cuando no hay consecuencias por permitir que se difunda contenido peligroso y lo que están haciendo es facilitar que se expanda sin control", defiende.
Unos datos que para el Ministerio de Inclusión supone una tendencia "preocupante" en el entorno digital en el primer semestre de 2025 ya que no solo ha aumentado el volumen del discurso del odio sino que se ha vuelto "más agresivo y sofisticado" en su forma de difusión. En total, según Oberaxe, se detectaron en junio más de 54.000 contenidos. En lo que va de 2025, los ataques se han concentrado de forma reiterada en un único grupo diana: las personas del norte de África, como ha pasado ahora en Torre Pacheco. Este colectivo ha pasado de ser objetivo del 57% de estos mensajes en marzo al 81% en junio, convirtiéndose en el principal blanco de la hostilidad digital.