En pleno 2026, la idea de que un debate en redes sociales pueda estar manipulado no es una sorpresa para nadie. Pero lo que hoy emerge sobrepasa con mucho los bots clásicos o las cuentas falsas que inundaban Twitter hace apenas unos años. Se trata de enjambres de inteligencia artificial (IA), sistemas diseñados para operar de forma coordinada, infiltrarse en el tejido social, mimetizarse con humanos y secuestrar el debate público. Lo que antes parecía ficción distópica ahora es una amenaza tangible.
La voz de alarma la ha dado un estudio coordinado por el investigador alemán Daniel Thilo Schroeder, del departamento de Tecnologías de Comunicación Sostenibles SINTEF Digital de Oslo (Noruega) y publicado por la revista Science. Un trabajo en el que han colaborado 22 expertos de todo el mundo en IA, redes sociales, psicología, ciencia de datos y periodismo.
¿Qué es un enjambre de IA maliciosa? Para entender la magnitud del peligro, primero hay que comprender sus capacidades técnicas. Los enjambres de IA no son simples programas que repiten mensajes; son sistemas inteligentes capaces de razonamiento estratégico y coordinación masiva.
Los avances en ingeniería de prompts (la redacción de instrucciones dirigidas a la IA), especialmente a través de técnicas como la llamada “cadena de pensamiento”, permiten que estos modelos aborden tareas de influencia complejas manteniendo coherencia y adaptabilidad.
La clave que define a un enjambre no es solo su inteligencia individual, sino su coordinación colectiva. Sistemas como MetaGPT permiten que cientos o miles de agentes autónomos trabajen en equipo, programándose a sí mismos para crear interacciones creíbles.
Un ejemplo práctico
Imaginemos un escenario: hay un debate en Twitter (ahora llamado X) sobre si una ciudad debería aumentar el transporte público o gastar en nuevas carreteras. Un enjambre de IA malicioso quiere convencer a la gente de que el gasto en carreteras es la mejor opción, aunque los datos indiquen lo contrario.
Para conseguirlo, cada “agente” del enjambre analiza la conversación actual: qué hashtags se usan, cuáles son los mensajes más compartidos, qué usuarios tienen más influencia y cuáles son los temas que generan más emociones. Esto es la IA “pensando paso a paso” antes de actuar. No lanza mensajes al azar, sino que estudia el terreno.
Gracias a la “cadena de pensamiento”, la IA crea varios mensajes distintos que, al mismo tiempo, refuerzan la misma narrativa, en este ejemplo, a favor de las carreteras. Antes de publicarlos, evalúa cada uno de ellos: ¿qué tono generará más compartidos? ¿Cuál provocará más discusión?
El enjambre no actúa solo. Cada mensaje se publica desde distintas cuentas falsas que interactúan entre sí: se retuitean, comentan, crean hilos de discusión, responden a críticos con argumentos aparentemente convincentes. Todo esto ocurre en tiempo real, adaptándose a cómo la audiencia reacciona.
El objetivo no es convencer a todos, sino crear la ilusión de consenso. La cadena de pensamiento permite a cada agente del enjambre evaluar la reacción de los humanos y ajustar la estrategia: si un mensaje genera pocas interacciones, se modifica y se publica de otra manera. Así, la narrativa falsa termina pareciendo “opinión mayoritaria”, aunque sea una manipulación.
Además, mediante técnicas de inundación asistida por IA, los mensajes del enjambre quedan registrados en la web, foros y comentarios. Esto significa que futuras IA, que entrenen sobre textos reales de Internet, absorberán estas narrativas como si fueran información legítima, perpetuando la manipulación en nuevos debates.
La “superioridad estética”
A este fenómeno se suman otras ventajas de la IA a la hora de desinformar. Un hallazgo inquietante de estudios recientes es que los perfiles con rostros generados por IA a menudo se perciben como más confiables que los reales. Esta “superioridad estética” facilita que los enjambres construyan credibilidad antes de lanzar ataques coordinados de desinformación. No hablamos de simples memes o noticias falsas; hablamos de manipulación emocional y estratégica a escala industrial.
La aparición de estos enjambres no surge de la nada. Su diseño, según la citada investigación, se alimenta de un historial de manipulación organizada en redes sociales que ha escalado en alcance y sofisticación. Entre 2017 y hoy, los estudios documentan que las operaciones de desinformación digital se expandieron de 28 países a más de 70, afectando desde elecciones democráticas hasta conflictos armados. Hay ejemplos con bots tradicionales en la última década en Brasil, Filipinas, Estados Unidos o Myanmar que han tenido éxito a la hora de manipular a la opinión pública. Incluso para provocar revueltas violentas.
¿Cómo logran estos enjambres doblegar la percepción social? Los estudios identifican varios caminos, pero dos destacan por su eficacia y sofisticación.
El primero es la creación de lo que los investigadores denominan cascadas de consenso sintético. Mediante la amplificación masiva de una narrativa, el enjambre genera la ilusión de que todo el mundo piensa igual.
El ser humano, instintivamente social, se deja influir por la “prueba social”: si parece que todos coinciden en algo, dudamos de nuestro propio juicio. Incluso políticos reales pueden modificar su discurso al percibir un falso entusiasmo generalizado. Es manipulación emocional en directo, con efecto multiplicador.
El segundo mecanismo es más sutil y peligroso: se inunda la web con contenido duplicado o falso, de modo que los rastreadores que alimentan los modelos de IA lo incorporen en futuros entrenamientos. En otras palabras, se está contaminando la base de conocimiento de la inteligencia artificial que todos utilizaremos mañana. No se trata solo de desinformación: es un envenenamiento del pozo del conocimiento humano a escala tecnológica.
Democracia en peligro
El impacto de estos mecanismos no se limita a la opinión pública; afecta directamente a la acción social. Narrativas inflamatorias contra minorías, ideologías extremistas o falsos consensos políticos pueden abonar violencia real y movilizar masas, erosionando las normas democráticas de manera sistemática y silenciosa.
Frente a este panorama, ¿qué puede hacerse? Los investigadores proponen un abanico de medidas que van desde la regulación hasta la innovación tecnológica.
En materia de gobernanza, la Unión Europea ya ha dado pasos con el Acta de Inteligencia Artificial, que prohíbe sistemas capaces de manipular subliminalmente el comportamiento humano. Pero el desafío es global: se requieren normas internacionales equivalentes a las que existen para ciberataques o armas químicas.
Ver másBruselas propone crear un organismo europeo de inteligencia para combatir las campañas de desinformación
Una estrategia técnica innovadora sería, proponen, la “inmunización de modelos”. Similar a una vacuna, implica entrenar proactivamente a los sistemas de IA para reconocer y resistir la generación o amplificación de contenido dañino mediante ejemplos adversarios y objetivos de seguridad específicos. En paralelo, se pueden introducir bots “benévolos” que actúen como contrapeso: mediadores de información verificada y promotores de cooperación en línea, reduciendo el efecto de los enjambres maliciosos.
El rediseño de plataformas también es clave. Las arquitecturas prosociales buscan distinguir humanos de bots mediante verificación descentralizada, limitar el anonimato malicioso y recompensar discursos constructivos en lugar de contenido diseñado solo para generar indignación o polarización.
El enjambre ya está aquí. Y su mayor victoria sería que nunca nos diéramos cuenta de que el perfil con el que discutimos en pantalla no es humano, sino un producto de la ingeniería estratégica.
En pleno 2026, la idea de que un debate en redes sociales pueda estar manipulado no es una sorpresa para nadie. Pero lo que hoy emerge sobrepasa con mucho los bots clásicos o las cuentas falsas que inundaban Twitter hace apenas unos años. Se trata de enjambres de inteligencia artificial (IA), sistemas diseñados para operar de forma coordinada, infiltrarse en el tejido social, mimetizarse con humanos y secuestrar el debate público. Lo que antes parecía ficción distópica ahora es una amenaza tangible.