La protección de la información
La UE le dice a Meta, Google, X y TikTok que el reloj corre: deben crear ya un protocolo especial para los medios
Una redacción publica un reportaje en Facebook o en X. Horas después, la publicación ha desaparecido. No hay aviso previo, no hay explicación, no hay nadie al otro lado que responda. No hay responsabilidad. Solo un mensaje automático que remite a las condiciones de uso. El medio puede reclamar, claro. Puede rellenar un formulario, esperar días, recibir otra respuesta automática. O no recibir nada. Eso, con distintas variantes, ha ocurrido a medios de toda Europa en los últimos años: desde cabeceras con décadas de historia hasta emisoras locales con una docena de periodistas.
Para cambiarlo, la Unión Europea hace tiempo que puso en marcha su capacidad de legislar. Y ahora las cosas ya han llegado al punto en el que las grandes plataformas tienen que responder. Es lo que declaró el pasado 22 de abril el Media Board de la Unión Europea, el organismo creado para velar por la independencia y la pluralidad del periodismo en el continente y en el que España está representada a través de la Comisión Nacional de los Mercados y la Competencia (CNMC).
El texto celebra las directrices que la Comisión Europea aprobó el pasado 6 de febrero y urge a Meta, Google, TikTok, X y el resto de las grandes tecnológicas a que las apliquen “cuanto antes”. Esas directrices no son sugerencias: son las instrucciones concretas, punto por punto, que explican cómo deben construir las plataformas un mecanismo para que los medios de comunicación puedan identificarse como tales y quedar protegidos frente a borrados arbitrarios. La ley que los obliga lleva más de un año en vigor. El mecanismo todavía no existe en ninguna de ellas.
Qué dice la ley y qué faltaba hasta ahora
Para entender el estado actual de la cuestión, hay que remontarse a 2024, cuando la Unión Europea aprobó el Reglamento Europeo de la Libertad de Medios, conocido por sus siglas en inglés como EMFA (European Media Freedom Act). Es la primera norma de ámbito europeo que intenta blindar el periodismo independiente frente a dos tipos de presión: la de los gobiernos y la de las grandes plataformas digitales.
Su artículo 18 es una de las piezas más prácticas de ese edificio. Establece que las plataformas más grandes —las que superan los 45 millones de usuarios activos mensuales en la UE— tienen que tratar a los medios de comunicación de forma diferente a como tratan a un usuario corriente. Un periódico, una radio o una televisión que publica contenidos en Facebook, YouTube o TikTok no puede estar sujeto a las mismas reglas informales que alguien que cuelga un vídeo de su gato.
Concretamente, la ley les exige tres garantías básicas: que la plataforma avise al medio con antelación si va a borrar o limitar uno de sus contenidos, que le explique los motivos con claridad y que le dé 24 horas para responder antes de que el borrado se haga efectivo. Si un medio considera que está siendo limitado de forma sistemática e injustificada, puede exigir además un diálogo formal y que sus quejas sean atendidas con prioridad.
Suena razonable. El problema es que, para beneficiarse de estas protecciones, los medios primero tienen que identificarse como tales ante cada plataforma. Y para que eso sea posible, cada plataforma tiene que crear un mecanismo —un botón, un formulario, algún tipo de canal específico— a través del cual los medios puedan presentar esa declaración. Hasta febrero de 2026, nadie había explicado con suficiente detalle cómo debía ser ese procedimiento. Las plataformas, en ausencia de instrucciones precisas, no lo habían construido. Eso es exactamente lo que las directrices de la Comisión vienen a resolver.
Las instrucciones: qué tienen que hacer las plataformas
Las directrices —publicadas en el Diario Oficial de la UE con la referencia C/2026/901— son bastante concretas. No dejan demasiado margen a la interpretación.
Lo primero que establecen es que ese mecanismo de declaración tiene que ser visible y accesible. No puede estar enterrado en un submenú de configuración avanzada. Debe estar disponible en todos los idiomas oficiales de la UE y ser fácil de encontrar para cualquier redacción, con independencia de su tamaño o sus recursos técnicos.
Para declararse como medio de comunicación, las organizaciones periodísticas tendrán que proporcionar siete elementos concretos. Entre ellos: que producen contenido informativo, que son editorialmente independientes —esto es, que no están controladas por un gobierno, un partido político o un Estado extranjero—, que están sujetas a algún mecanismo de supervisión regulatoria o de autorregulación reconocido (un consejo de prensa, un defensor del lector, un código deontológico acreditado), y sus datos de contacto y los del regulador o autoridad competente en su país.
Hay un punto que merece atención especial: las directrices exigen también que los medios declaren si sus contenidos generados con inteligencia artificial tienen supervisión humana y control editorial. Es, probablemente, la novedad más relevante del texto en el contexto actual, y anticipa una conversación que apenas ha empezado en la industria periodística.
Una vez presentada la declaración, la plataforma tiene que acusar recibo de forma automática e inmediata, con un contacto humano real —no un sistema automatizado— para facilitar la comunicación posterior. Las declaraciones deben además ser públicas: cualquier ciudadano podrá consultar qué medios se han declarado como tales en cada plataforma.
Las directrices también acotan el margen de maniobra de las plataformas cuando tengan dudas sobre si un supuesto “medio” cumple realmente los requisitos. En ese caso, no pueden limitarse a rechazar la declaración: deben consultar al regulador nacional correspondiente antes de tomar ninguna decisión.
La incertidumbre no puede usarse como excusa para el bloqueo. Y si un medio pertenece a un mecanismo de corregulación o autorregulación reconocido —un consejo de prensa, por ejemplo—, su declaración debe aceptarse de forma automática, siempre que el resto de elementos estén en orden.
Por último, las directrices abren la puerta a que organizaciones como verificadores de datos participen en la supervisión del proceso, para evitar que medios dedicados sistemáticamente a la desinformación o a la propaganda disfrazada de periodismo se beneficien de protecciones que no les corresponden.
Quién tiene que moverse
La pelota está en el tejado de las plataformas. Las normas ya existen; lo que falta es que las implementen. La lista de obligadas incluye a Meta (Facebook, Instagram, Threads), Alphabet/Google (YouTube, Google Search, Google News), TikTok, X, Microsoft (Bing, LinkedIn), Snapchat y Pinterest, entre otras. Todas ellas están sujetas al Reglamento de Servicios Digitales y, por extensión, al artículo 18 del EMFA.
Pero no son las únicas que tienen que actuar. Los medios de comunicación que quieran beneficiarse de estas protecciones tendrán que preparar su declaración y presentarla en cada plataforma en la que tengan presencia relevante. Eso implica verificar que cumplen los requisitos —en particular los de transparencia sobre propiedad e independencia editorial— y mantenerla actualizada si sus condiciones cambian.
Y los reguladores nacionales de medios deben estar preparados para ser consultados por las plataformas cuando estas duden sobre alguna declaración. En España, eso corresponde principalmente a la CNMC y, en su ámbito audiovisual, al organismo que prevé la Ley de Comunicación Audiovisual. La agilidad de esa respuesta importa: si el regulador tarda semanas en contestar, la protección pierde buena parte de su sentido práctico.
¿Cuál es el problema? En España la CNMC sigue sin tener la habilitación legal para ocuparse de este asunto más allá del campo audiovisual.
Por qué importa
La presidenta del Media Board, Amma Asante, resume el propósito del artículo 18 en que estas normas existen para que los intermediarios privados no puedan “restringir indebidamente el discurso público”. Dicho de otra forma: para que la decisión sobre qué periodismo llega a la ciudadanía no la tome un algoritmo de Silicon Valley.
España delega en Bruselas la respuesta al modelo de IA que tiene en alerta a bancos y gobiernos de todo el mundo
Ver más
No es una amenaza hipotética. En los últimos años, medios de distintos países —incluidos algunos europeos— han visto contenidos borrados o alcances limitados sin previo aviso, sin explicación clara y sin posibilidad real de réplica. Las plataformas aplican sus propias condiciones de uso, las cambian cuando lo consideran oportuno y no tienen, hasta ahora, ninguna obligación legal de tratar a un medio periodístico de forma distinta a cualquier otro usuario.
El artículo 18 del EMFA no cambia eso radicalmente: no obliga a las plataformas a no borrar contenidos. Solo les exige que, antes de hacerlo, avisen, expliquen y escuchen. Es una protección modesta, pero es la primera de su tipo a escala continental. Y tiene una virtud: pone por escrito, en una norma jurídicamente vinculante, que el periodismo independiente merece un tratamiento distinto al del contenido ordinario.
La eficacia de esa protección depende ahora de que las plataformas construyan el mecanismo, de que los medios lo usen y de que los reguladores hagan cumplir la norma. El Media Board ya ha avisado esta semana de que el reloj está corriendo. El primer test es el más sencillo: ¿tienen ya Facebook, YouTube o TikTok ese formulario? La respuesta, por ahora, es negativa.