<?xml version="1.0" encoding="UTF-8"?>
<rss xmlns:media="http://search.yahoo.com/mrss/" xmlns:dc="http://purl.org/dc/elements/1.1/" xmlns:atom="http://www.w3.org/2005/Atom" version="2.0">
  <channel>
    <title><![CDATA[infoLibre - Meta]]></title>
    <link><![CDATA[https://www.infolibre.es/temas/meta/]]></link>
    <description><![CDATA[infoLibre - Meta]]></description>
    <language><![CDATA[es]]></language>
    <copyright><![CDATA[Copyright infoLibre]]></copyright>
    <ttl>10</ttl>
    <item>
      <title><![CDATA[Las redes sociales ante la justicia: el negocio de la adicción empieza a tener precio]]></title>
      <link><![CDATA[https://www.infolibre.es/medios/redes-sociales-justicia-negocio-adiccion-empieza-precio_1_2168838.html]]></link>
      <description><![CDATA[<p><img src="https://static.infolibre.es/clip/39afe4a4-9ac5-49c2-850f-b442c97f8df9_16-9-aspect-ratio_default_0.jpg" width="1200" height="675" alt="Las redes sociales ante la justicia: el negocio de la adicción empieza a tener precio"></p><p>Durante décadas, las grandes plataformas digitales han estado operando bajo un principio casi sagrado: lo que publican sus usuarios no es responsabilidad suya. La Sección 230 de la Ley de Decencia en las Comunicaciones de Estados Unidos les otorgó un escudo legal que las blindaba frente a miles de demandas y convertía cualquier intento de atribuirles responsabilidad en un ejercicio jurídico destinado al fracaso. Ese escudo se está agrietando, y lo que está entrando por las grietas, además de un reproche moral, es <strong>una abultada factura.</strong></p><p>En Los Ángeles, un jurado popular declaró esta semana a Meta —la matriz de Instagram y Facebook— y a YouTube —propiedad de Alphabet, la empresa madre de Google— <strong>responsables de negligencia</strong> por haber diseñado ambas plataformas de una manera que dañó la salud mental de una joven de veinte años. La indemnización fue de seis millones de dólares, repartidos entre daños compensatorios y punitivos, con Meta asumiendo el 70% de la responsabilidad y Google el 30%. </p><p>Una cifra modesta comparada con lo ocurrido unos días antes en Nuevo México, donde Meta fue condenada a pagar 375 millones por permitir que Instagram se convirtiera en <strong>un entorno propicio para la explotación sexual infantil </strong>y por engañar a los usuarios sobre la seguridad de sus aplicaciones. Snap y TikTok se libraron en el juicio de Los Ángeles gracias a que prefirieron llegar a acuerdos extrajudiciales con la demandante antes de que el jurado emitiera su veredicto. Nadie sabe cuánto pagaron por no ser señaladas en este caso, pero eso no las librará de ser acusadas en en otros procedimientos.</p><p>Lo que hace jurídicamente relevantes estos fallos es que no se basan en el contenido que circula por las plataformas sino en cómo están construidas. Los demandantes no están acusando a Meta o a Google de publicar algo ilegal. Las acusan de haber diseñado<strong> productos defectuosos:</strong> el <em>scroll</em> infinito que elimina cualquier punto natural de parada, las notificaciones de intervalo variable que imitan la lógica de una máquina tragaperras, los algoritmos que priorizan el contenido que más engancha aunque sea el más dañino. Eso no es contenido de terceros. Eso lo fabricaron ellas. Y ahí es exactamente donde la Sección 230 deja de protegerlas.</p><p>La norma, aprobada en 1996, cuando internet era todavía un espacio marginal y sus riesgos apenas se intuían, fue concebida para proteger a los proveedores de servicios digitales de la responsabilidad por lo que sus usuarios publicaran. Su lógica <strong>parecía razonable en aquel contexto: </strong>no tenía sentido hacer responsable a una plataforma de mensajería por los insultos que un usuario enviara a otro, del mismo modo que no se considera responsable a una empresa de telefonía por las conversaciones que se producen a través de sus líneas. </p><p>Pero las redes sociales del siglo XXI no son una infraestructura pasiva. Son sistemas activos de recomendación, ordenación y amplificación del contenido, diseñados con una intención precisa: <strong>mantener al usuario el mayor tiempo posible dentro de la plataforma.</strong> Y ese diseño, argumentan los demandantes con creciente éxito, es una decisión de ingeniería cuyas consecuencias dañinas sus autores deben asumir.</p><p>Los juristas recurren a la industria tabacalera para explicar el giro histórico que están protagonizando estos procesos. Al igual que ocurrió con las tabaqueras en los años noventa, lo determinante no está siendo solo el daño, sino<strong> la evidencia de que las empresas lo conocían. </strong>Documentos internos de Meta han demostrado que sus propios equipos sabían que los filtros de belleza de Instagram generaban dismorfia corporal en adolescentes, que sus algoritmos podían empujar hacia contenido relacionado con trastornos alimenticios, y que la empresa eligió priorizar el <em>engagement</em> sobre el bienestar. <strong>Sabían, callaron y siguieron optimizando.</strong> Ese es el patrón que en los años noventa arruinó a Philip Morris. Y ese es el patrón que los jurados de Los Ángeles y Santa Fe han empezado a penalizar.</p><p>La base científica que sustenta estas demandas no es especulativa. El cerebro reacciona a las redes sociales <strong>de forma parecida a como reacciona a las drogas. </strong>Recibir un “me gusta” libera dopamina —el neurotransmisor que el cerebro segrega cuando anticipa o recibe una recompensa— en sus zonas más instintivas. </p><p>Con el tiempo, el usuario desarrolla lo que los investigadores llaman una disociación entre el “querer” y el “gustar”, un deseo compulsivo de revisar la plataforma que no va acompañado de satisfacción real, o que incluso coexiste con una satisfacción decreciente. <strong>El usuario sigue abriendo la aplicación aunque sepa que no va a encontrar nada que le importe,</strong> del mismo modo que un fumador enciende un cigarrillo sin esperar ya ningún placer particular de él. Los adolescentes son especialmente vulnerables porque su corteza prefrontal —la región que regula el control de los impulsos— aún no está completamente desarrollada. No es una metáfora clínica. Es neurobiología con implicaciones jurídicas.</p><p>Los mecanismos concretos mediante los que las plataformas explotan esa vulnerabilidad están bien documentados. El <em>scroll</em> infinito, desarrollado por el diseñador <strong>Aza Raskin —</strong>que después se arrepentiría públicamente de haberlo inventado—, elimina los momentos naturales de pausa que en cualquier otra actividad actúan como señales de que ha llegado el momento de parar. "Es como si estuvieran tomando <strong>cocaína conductual", </strong>ha llegado a decir Raskin. </p><p>La reproducción automática de vídeos hace lo mismo en el terreno audiovisual. Las notificaciones de intervalo variable —que llegan de forma impredecible, <strong>como los premios de una tragaperras—</strong> generan un hábito de comprobación compulsiva que los psicólogos conductuales llevan décadas identificando como uno de los mecanismos de condicionamiento más potentes conocidos. </p><p>Y los algoritmos de recomendación, optimizados para maximizar el tiempo de uso, aprenden rápidamente que <strong>el contenido que genera más actividad neuronal es el que activa el sesgo de negatividad:</strong> la indignación, el miedo, la comparación social desfavorable. El contenido más rentable tiende a ser también el más tóxico, y los sistemas están diseñados para servirlo con precisión creciente.</p><p>La investigación ha empezado a documentar además cambios estructurales en el cerebro asociados al uso intensivo. Niveles más bajos de materia gris en ciertas áreas, alteraciones en los patrones de atención, mayor impulsividad. En adolescentes, cuyo sistema nervioso está todavía en formación, estos efectos pueden condicionar el desarrollo cognitivo de forma duradera. La correlación entre el uso excesivo de redes sociales y el aumento de <strong>la depresión, la ansiedad y las ideas suicidas </strong>en jóvenes está suficientemente documentada como para que ya no pueda descartarse como alarmismo de padres preocupados.</p><p>El problema central es que el diseño adictivo no es un efecto secundario del modelo sino su columna vertebral. Las redes sociales ofrecen sus servicios de forma gratuita porque <strong>su negocio no consiste en vender un producto al usuario sino en vender al usuario</strong> —su atención, sus datos, su comportamiento— a los anunciantes. En ese modelo, el tiempo que el usuario permanece en la plataforma es literalmente la unidad de medida de la rentabilidad. Cada <em>scroll</em> de más es un anuncio más, un dato de comportamiento más, una fracción de céntimo más. El usuario no es el cliente. Es la materia prima.</p><p>Investigaciones con universitarios estiman que, si los usuarios pudieran desactivar todas las funciones de diseño persuasivo, su tiempo de pantalla se reduciría una media del 37%, con casos individuales que llegan al 65%. Una reducción de ese calibre no sería un ajuste menor para estas empresas: sería un colapso de las métricas sobre las que se construyen sus valoraciones bursátiles y se justifican sus ingresos publicitarios. El mercado global de publicidad digital, que valía 350.000 millones de dólares en 2020, alcanzará este año los 768.000 millones, un crecimiento impulsado casi exclusivamente por el aumento del <em>engagement</em>. <strong>Sin adicción, no hay negocio a esta escala. </strong>Esa es la aritmética del modelo.</p><p>La diferencia con otros sectores que también pueden generar dependencia es reveladora. En un modelo de suscripción —Netflix, Spotify— <strong>la empresa es indiferente a la intensidad del uso </strong>siempre que el cliente renueve. Un abonado que apenas consume el servicio es tan rentable como uno que lo usa doce horas al día, y de hecho consume menos infraestructura. Una tabaquera puede ser indiferente a si el cliente fuma el cigarrillo o lo tira, siempre que lo compre. En las redes sociales, en cambio, el beneficio no se produce con la <em>compra</em> inicial del servicio —que es gratuita— sino con cada minuto adicional de uso. La adicción no es un riesgo colateral del modelo. <strong>Es el modelo.</strong></p><p>Tristan Harris, exdiseñador de Google convertido en crítico del sector, lleva años argumentando que estas empresas no pueden reformarse significativamente desde dentro porque <strong>sus incentivos financieros</strong> están estructuralmente orientados a consumir el tiempo de ocio de las personas. La arquitectura de las plataformas, sostiene, no está diseñada para servir al usuario sino para servirlo a él como producto. Los veredictos judiciales de estos días parecen haberle dado la razón, al menos en los tribunales.</p><p>Lo ocurrido en Los Ángeles y Santa Fe es, en términos procesales, <strong>un ensayo general.</strong> El juicio californiano funciona como caso piloto para más de 1.500 demandas similares consolidadas en ese estado, y sus resultados orientarán el valor de miles de reclamaciones pendientes y la posibilidad de acuerdos globales. En junio comenzará en Oakland un juicio federal impulsado por distritos escolares contra Meta, ByteDance —la matriz de TikTok—, Snap y Google. En julio, otro proceso estatal en California involucrará a las cuatro grandes plataformas. En mayo, un juez de Nuevo México decidirá si impone a Meta cambios estructurales en la arquitectura de sus productos, como verificaciones de edad efectivas que hoy no existen o no funcionan con ninguna fiabilidad.</p><p>Meta y Google han confirmado que apelarán, y los expertos prevén que<strong> la disputa llegará al Tribunal Supremo</strong>, que tendrá que pronunciarse de forma definitiva sobre si las protecciones legales actuales cubren el diseño de algoritmos adictivos. Es una pregunta a la que la Sección 230, redactada treinta años antes de que existiera el <em>scroll</em> infinito, no puede responder. </p><p>La batalla, previsiblemente, se extenderá además hacia nuevas fronteras: Baltimore ha demandado a xAI, la empresa de Elon Musk, alegando que su chatbot <strong>Grok</strong> genera imágenes sexuales explícitas de menores, y más de 130 demandas apuntan ya contra la plataforma de videojuegos <strong>Roblox</strong> por reclamos similares de desprotección de la infancia. La teoría del "diseño defectuoso" está encontrando aplicaciones que sus impulsores iniciales apenas anticipaban.</p><p>Hay algo significativo en que sean jurados populares —no legisladores, no reguladores, no académicos— quienes estén forzando este punto de inflexión. El Congreso estadounidense lleva años intentando aprobar la Ley de Seguridad Infantil en Internet sin lograrlo, <strong>paralizado por el poder de </strong><em><strong>lobbying</strong></em><strong> de las plataformas, </strong>por la dificultad de alcanzar consensos en un sistema político fracturado y por la genuina complejidad de legislar sobre tecnologías que evolucionan más rápido que los ciclos parlamentarios. Doce ciudadanos reunidos en una sala de Los Ángeles han conseguido en días lo que la política no ha logrado en años: establecer, con fuerza de ley, que estas empresas conocían el daño que causaban y eligieron no actuar. Que la ignorancia, en este caso, no es una defensa.</p><p>Las plataformas llevan años presentándose como meros intermediarios neutrales, espacios donde las personas se expresan libremente y la empresa solo pone la infraestructura. Es una imagen que siempre tuvo más de relato corporativo que de descripción precisa, pero que funcionó durante tiempo suficiente como para construir sobre ella <strong>un muro legal casi impenetrable. </strong></p><p>Los veredictos de estos días dicen que ese muro tiene fecha de caducidad. Que el <em>scroll</em> infinito, las notificaciones diseñadas para generar ansiedad y los algoritmos optimizados para maximizar el tiempo de pantalla son decisiones de ingeniería con <strong>consecuencias reales sobre personas reales,</strong> y que tienen autor, tienen destinatario y tienen precio. Son, simplemente, un producto. Y los productos defectuosos no son neutrales.</p>]]></description>
      <guid isPermaLink="false"><![CDATA[772df7be-362e-45a6-a917-ffb60bc27f5e]]></guid>
      <pubDate><![CDATA[Fri, 27 Mar 2026 05:01:17 +0000]]></pubDate>
      <author><![CDATA[Fernando Varela]]></author>
      <enclosure url="https://static.infolibre.es/clip/39afe4a4-9ac5-49c2-850f-b442c97f8df9_16-9-aspect-ratio_default_0.jpg" length="14929549" type="image/jpeg"/>
      <media:content url="https://static.infolibre.es/clip/39afe4a4-9ac5-49c2-850f-b442c97f8df9_16-9-aspect-ratio_default_0.jpg" type="image/jpeg" fileSize="14929549" width="1200" height="675"/>
      <media:title><![CDATA[Las redes sociales ante la justicia: el negocio de la adicción empieza a tener precio]]></media:title>
      <media:thumbnail url="https://static.infolibre.es/clip/39afe4a4-9ac5-49c2-850f-b442c97f8df9_16-9-aspect-ratio_default_0.jpg" width="1200" height="675"/>
      <media:keywords><![CDATA[Redes sociales,Meta,YouTube,Adicciones,Justicia,Estados Unidos]]></media:keywords>
    </item>
    <item>
      <title><![CDATA[Meta y YouTube condenadas a pagar 3 millones de dólares en EEUU por adicción a redes]]></title>
      <link><![CDATA[https://www.infolibre.es/politica/meta-youtube-condenadas-pagar-3-millones-dolares-eeuu-adiccion-redes_1_2168187.html]]></link>
      <description><![CDATA[<p><img src="https://static.infolibre.es/clip/aa180eaa-1354-4a7d-8271-8a785e524231_16-9-aspect-ratio_default_0.jpg" width="1200" height="675" alt="Meta y YouTube condenadas a pagar 3 millones de dólares en EEUU por adicción a redes"></p><p>Un jurado de Los Ángeles ha declarado este miércoles culpables a <a href="https://www.infolibre.es/politica/gobierno-pedira-fiscalia-investigue-posibles-delitos-x-meta-tiktok_1_2146730.html"  >Meta y Youtube</a> de perjudicar la salud mental de menores en una <strong>histórica demanda</strong> sobre la adicción a las redes sociales y por la que tendrán que pagar una indemnización de <strong>3 millones de dólares</strong> (unos 2.6 millones de euros).</p><p>El juicio comenzó a finales de enero en el Tribunal Superior de Los Ángeles con la <strong>demanda de una joven de 20 años</strong> que alegó que se volvió adicta a aplicaciones como Instagram y YouTube durante su infancia. Ambas plataformas deberán pagar <strong>3 millones de dólares en concepto de indemnización</strong> por daños morales y otros perjuicios económicos. De acuerdo con la sentencia, Meta es <strong>responsable del 70%</strong> de dicho coste y YouTube del resto.</p><p>El jurado de este histórico juicio, compuesto por <strong>siete mujeres y cinco hombres</strong>, seguirá deliberando para decidir qué daños punitivos adicionales deberán pagar las empresas por dolor o fraude.</p><p>El resultado de esta demanda <strong>representa una importante victoria contra dos gigantes tecnológicos</strong> y sienta las bases para la <a href="https://www.infolibre.es/medios/diseno-importa-tecnologicas-enfrentan-primer-gran-juicio-generar-adiccion_1_2134484.html"  >resolución de alrededor de 1.500 casos similares</a> contra empresas de redes sociales.</p><p>La demanda de la joven, identificada como K.G.M., incluía a las herramientas TikTok y Snapchat, que lograron alcanzar un acuerdo en términos no revelados para <strong>evitar el primero de una serie de juicios históricos</strong> contra las plataformas de redes sociales.</p><p>Esta resolución se suma a la sentencia dictaminada ayer por un <strong>jurado de Nuevo México que también encontró culpable a Meta</strong> de ocultar información sobre deficiencias en sus plataformas y prácticas comerciales que facilitaban la explotación sexual infantil y fue condenado a una multa de 375 millones de dólares (324 millones de euros).</p><p>Estos litigios forman parte de una <strong>ola más amplia de casos</strong> que cuestionan las prácticas de la industria tecnológica y podrían sentar precedentes sobre los límites de responsabilidad de las redes sociales en EEUU.</p>]]></description>
      <guid isPermaLink="false"><![CDATA[acb26666-9800-4465-8482-1a5190a38427]]></guid>
      <pubDate><![CDATA[Wed, 25 Mar 2026 21:11:25 +0000]]></pubDate>
      <author><![CDATA[infoLibre]]></author>
      <enclosure url="https://static.infolibre.es/clip/aa180eaa-1354-4a7d-8271-8a785e524231_16-9-aspect-ratio_default_0.jpg" length="906855" type="image/jpeg"/>
      <media:content url="https://static.infolibre.es/clip/aa180eaa-1354-4a7d-8271-8a785e524231_16-9-aspect-ratio_default_0.jpg" type="image/jpeg" fileSize="906855" width="1200" height="675"/>
      <media:title><![CDATA[Meta y YouTube condenadas a pagar 3 millones de dólares en EEUU por adicción a redes]]></media:title>
      <media:thumbnail url="https://static.infolibre.es/clip/aa180eaa-1354-4a7d-8271-8a785e524231_16-9-aspect-ratio_default_0.jpg" width="1200" height="675"/>
      <media:keywords><![CDATA[Meta,YouTube,Estados Unidos,Redes sociales,Adicciones]]></media:keywords>
    </item>
    <item>
      <title><![CDATA[Los gigantes de la IA tratan de sortear la regulación europea pactando con grandes grupos de comunicación]]></title>
      <link><![CDATA[https://www.infolibre.es/medios/gigantes-ia-tratan-sortear-regulacion-europea-pactando-grandes-grupos-comunicacion_1_2163574.html]]></link>
      <description><![CDATA[<p><img src="https://static.infolibre.es/clip/71574985-cad7-455f-abba-847749599e89_16-9-aspect-ratio_default_0.jpg" width="1200" height="675" alt="Los gigantes de la IA tratan de sortear la regulación europea pactando con grandes grupos de comunicación"></p><p>No conocemos las condiciones exactas del primer acuerdo que Prisa Media firmó con OpenIA en marzo de 2024: cuánto dinero, por cuántos artículos, con qué cláusula de renovación. Los pactos entre los gigantes tecnológicos de la inteligencia artificial y los grandes grupos de comunicación tienen algo en común con los tratados de paz: se anuncian en comunicados triunfales pero<strong> entierran todos los detalles.</strong></p><p>Aun así, lo que sabemos es suficiente para entender la dirección en la que se mueve el mercado. Y lo que no sabemos sobra para entender por qué los medios pequeños, regionales, locales e independientes <strong>están preocupados.</strong></p><p>Desde 2023, las empresas de inteligencia artificial generativa —OpenAI, Meta, Google, Microsoft, Amazon, Perplexity— han necesitado responder a la misma pregunta incómoda: ¿de dónde sacan el texto con el que entrenan sus modelos? La respuesta es que lo toman de internet. Y una parte sustancial de ese "internet" estaba y <strong>está hecho de periodismo: </strong>crónicas, reportajes, análisis, entrevistas. El trabajo de redacciones financiadas con suscripciones y publicidad, que forman opinión pública, y a las que nadie consultó antes de convertir su producción en datos de entrenamiento.</p><p>El conflicto no es un debate técnico sobre modelos de lenguaje. Trata sobre <strong>a quién pertenece el valor que genera el periodismo</strong>. Y la respuesta que está dando el mercado es que pertenece, en gran medida, a quien tiene más capacidad de negociación.</p><p>Los modelos de lenguaje como ChatGPT, Gemini o Claude se entrenan con enormes corpus de texto extraídos de la red. Cuanto más rico y diverso es el material de entrenamiento, mejor funciona el modelo. El periodismo de calidad —con su precisión factual, su variedad temática, su diversidad de registros— es <strong>un activo extraordinariamente valioso.</strong> El problema es que fue tomado sin permiso.</p><p>Las empresas de IA arguyen que el rastreo de contenidos públicos está amparado por <strong>la excepción de la minería de datos </strong>de la normativa europea de 2019. Los editores rechazaron esa interpretación desde el primer momento. El resultado fue una acumulación de litigios, presiones regulatorias y, finalmente, una carrera por <a href="https://www.infolibre.es/politica/empresas-ia-consolidan-hegemonia-grandes-medios-e-ignoran-pequenos_1_2071624.html" target="_blank"><strong>firmar acuerdos</strong></a><strong> </strong>que pusieran un precio —aunque tardío— al uso de ese material.</p><p>Pero los acuerdos no resuelven el problema de fondo. Un sistema como AI Overviews de Google no solo se entrenó con artículos periodísticos: los <a href="https://www.infolibre.es/politica/vuelta-casilla-salida-ia-enfrenta-medios-enesimo-desafio-sobrevivir-digital_1_2060740.html" target="_blank">resume</a> en tiempo real y los sirve al usuario en la página de resultados, sin que este necesite hacer clic en el enlace original. El medio que financió el sueldo del periodista, el viaje y las horas de edición ve cómo su trabajo llega al usuario sin pasar por su web. Sin clic que genere publicidad. El periodismo se ha convertido en el combustible de un negocio que, en su fase extractiva, <strong>no deja nada a cambio.</strong></p><p>En España, el actor central de quienes están cobrando a los gigantes de la IA es <strong>Prisa Media.</strong> La empresa propietaria de <em>El País,</em> la Cadena SER, <em>Cinco Días, As</em> y el <em>Huffpost</em> <strong>ha firmado con cuatro operadoras de IA en menos de dos años:</strong> con OpenAI, con Meta, con Google y con Perplexity. Prisa se ha convertido, de facto, en el interlocutor del periodismo español ante las grandes tecnológicas.</p><p>En el resto de Europa, <strong>el patrón es idéntico.</strong> OpenAI tiene acuerdos con Axel Springer, <em>Le Monde, </em>el <em>Financial Times, The Guardian </em>y Schibsted. Meta ha fichado a <em>Le Figaro,</em> <em>Süddeutsche Zeitung,</em> Reuters y News Corp. Microsoft colabora con Informa, Axel Springer, el FT y Reuters. Mistral cerró un acuerdo con la AFP. Amazon se alió con Reach, Condé Nast y Hearst.</p><p>La lista tiene una característica que se vuelve evidente al leerla entera: <strong>todos los nombres son grandes. </strong>Todos los medios firmantes tienen decenas o cientos de millones de lectores, archivos históricos de décadas y equipos jurídicos capaces de revisar contratos complejos. Ninguno es un periódico provincial, una revista especializada, un nativo digital de medio alcance. Ninguno.</p><p>La posición pública de las grandes empresas de IA descansa en tres argumentos. El primero es el de la innovación: cuando Meta <a href="https://www.infolibre.es/medios/obligan-chatgpt-gemini-claude-suscribir-codigo-buenas-practicas-ia-union-europea_1_2040505.html" target="_blank">rechazó</a>, en agosto de 2025, firmar el Código de Buenas Prácticas de la UE en materia de inteligencia artificial, argumentó que introduce incertidumbres legales que ahogarán el desarrollo de la IA en Europa. Lo que no dijo es que "incertidumbre legal" es su manera de decir que <strong>no quiere quedar obligada a publicar </strong>qué datos usaron para entrenar sus modelos.</p><p>El segundo es el de<strong> la complejidad técnica:</strong> alegan que un modelo de pago proporcional al uso real de cada contenido es inviable porque no existe infraestructura para medirlo. Esto es parcialmente cierto. Pero la solución que proponen —la tarifa plana— no resuelve el problema de la atribución: lo elimina. Pagar una cantidad fija anual desvincula la compensación del uso real: el valor específico de cada pieza periodística desaparece en el bulto.</p><p>El tercero es el del mercado voluntario: sostienen que el ecosistema de licencias está tomando forma solo. Lo que no explican es que el mercado que toma forma es <strong>el de los grandes grupos.</strong> No funciona para el periódico regional que no tiene peso –ni recursos– para ser un interlocutor válido con las oficinas de OpenAI.</p><p>El argumento que las empresas raramente formulan en público es más simple: <strong>negociar con pocos actores grandes es más eficiente que hacerlo con muchos pequeños.</strong> Gestionar un acuerdo con Prisa Media tiene el mismo coste administrativo que uno con un periódico local de 10.000 lectores, pero el primero da acceso a décadas de archivo en cuatro cabeceras nacionales. Las cifras conocidas hablan solas: News Corp obtuvo 50 millones de dólares anuales de OpenAI; Axel Springer genera cifras de ocho dígitos. Los medios fuera de esa categoría no tienen cifra porque no tienen acuerdo.</p><p>El último acuerdo firmado por Meta con varios medios europeos, entre ellos los del Grupo Prisa, se ha conocido pocos días después de que el Parlamento Europeo, el pasado 12 de marzo, aprobase el informe sobre IA que lleva el nombre del eurodiputado de la CDU alemana Axel Voss. No es una directiva vinculante —ese es su límite principal— pero es <strong>el diagnóstico más preciso </strong>que ha producido hasta ahora una institución europea sobre este conflicto. Su lectura revela algo importante: los legisladores europeos entienden exactamente lo que está pasando. <strong>Y ya le han pedido a la Comisión que actúe.</strong></p><p>El punto de partida es una afirmación que las empresas de IA llevan años esquivando: la IA generativa se ha entrenado masivamente con obras protegidas sin autorización. No como accidente ni zona gris, sino como<strong> práctica sistemática.</strong> El informe reafirma que el derecho de autor es algo que ninguna excepción tecnológica puede erosionar e introduce el concepto de ”acceso lícito”: solo puede ampararse en la excepción de minería de datos quien primero accedió legalmente al contenido.</p><p>En el plano operativo, el informe pide a la Comisión un nuevo marco jurídico que cubra no solo el entrenamiento inicial de los modelos, sino también la inferencia —el momento en que el modelo genera una respuesta— y la generación aumentada mediante recuperación: el sistema por el que algunos modelos consultan fuentes externas en tiempo real. Es una distinción técnica con<strong> consecuencias económicas enormes:</strong> cada vez que un modelo usa contenido periodístico para construir una respuesta, ese uso debería ser licenciable y remunerado.</p><p>El informe exige además transparencia:<strong> listas detalladas del contenido protegido</strong> usado para entrenamiento y usos posteriores, registros de actividades de rastreo, y que la Oficina de Propiedad Intelectual de la Unión Europea (EUIPO) actúe como intermediaria para gestionar mecanismos de exclusión y mercados de licencias sectoriales.</p><p>Rechaza también<strong> las tarifas planas: </strong>un modelo de licencia global a cambio de pago único diluye el valor de cada contenido y amenaza la diversidad sectorial. Defiende en su lugar licencias voluntarias con remuneraciones proporcionales al uso efectivo. Y añade un elemento que suele pasarse por alto: <strong>pide estudiar soluciones para remunerar los usos ya realizados. </strong>Reconoce, en otras palabras, que el daño ya ocurrió y que hay que buscar mecanismos para compensarlo retroactivamente.</p><p>Para los medios, el informe reserva un bloque específico: control efectivo sobre sus contenidos tanto para entrenamiento como para productos que compiten con ellos, <strong>compensación por desvío de audiencia e ingresos, </strong>protección especial explícita para medios locales y regionales, y prohibición de que los sistemas de IA favorezcan selectivamente ciertas cabeceras.</p><p>Es la propuesta regulatoria más completa que existe hoy en Europa. Su debilidad es que es una resolución parlamentaria, no una ley. Las empresas de IA la leen con atención. Y mientras leen,<strong> siguen firmando acuerdos de tarifa plana.</strong> Para protegerse, al menos ante los grandes grupos de comunicación, que son además los más influyentes en las políticas de Bruselas.</p><p>Mientras tanto, la batalla judicial continúa. En febrero de 2026, el Consejo Europeo de Editores de Medios demandó a Google ante la Comisión Europea. El argumento conecta con lo que el <em>informe Voss </em>llama “productos que compiten directamente” con los medios: cuando AI Overviews genera un resumen tan completo que el usuario ya no necesita leer el artículo original, Google <strong>no está citando al periodismo, sino suplantándolo.</strong> El usuario obtiene la información, el medio pierde el clic, Google se embolsa el dinero que genera la publicidad.</p><p>En España, CEDRO denunció a Google ante la Comisión Nacional de los Mercados y la Competencia (CNMC) por <strong>abuso de posición dominante.</strong> El expediente se cerró en diciembre de 2025 con compromisos vinculantes para todos los editores y agencias españolas: más transparencia sobre cómo se calcula la remuneración, un procedimiento de negociación estructurado, revisión anual de las ofertas económicas y posibilidad de remuneración retroactiva.</p><p>El Tribunal de Justicia de la UE examina por su parte si los resúmenes generados por IA constituyen una reproducción ilícita que vulnera la protección especial de los editores reconocida en<strong> la Directiva de Copyright de 2019.</strong></p><p>Al margen se están quedando, al menos por el momento, los medios pequeños y locales, que están siendo utilizados —sus contenidos rastreados, incorporados a modelos, usados para generar respuestas— sin recibir compensación, sin capacidad técnica para verificar si su trabajo está en los corpus de entrenamiento y sin recursos legales para impugnar esa situación. El <em>informe Voss </em>los menciona como sujetos que<strong> merecen protección especial. </strong>Pero una mención en una resolución no es un cheque ni un acuerdo comercial.</p><p>Hay además un problema que los grandes acuerdos no solucionan. Si quienes habrían visitado la web de un medio ya no lo hacen porque la IA les dio la respuesta, <strong>ningún ingreso por licencias compensa esa pérdida. </strong>Los acuerdos actuales no contemplan el valor del lector a largo plazo: la suscripción, la fidelización, la relación sostenida con la audiencia. <strong>El modelo de negocio del periodismo financiado por audiencia está siendo erosionado con independencia de si el medio firmó o no un acuerdo.</strong></p><p>Frente a esta asimetría, CEDRO y la Asociación de Medios de Información (AMI) defienden la gestión colectiva: ningún autor individual puede negociar con las grandes plataformas en condiciones de igualdad, pero <strong>una entidad que agrupa a miles de creadores sí puede.</strong> El <em>informe Voss</em> respalda esta vía al pedir que la EUIPO apoye mercados de licencias sectoriales con participación de entidades de gestión colectiva. CEDRO defiende además que el contenido no se use salvo que el medio lo autorice expresamente. Porque una vez que los contenidos han entrado en el corpus de entrenamiento, <strong>no existe mecanismo técnico para retirarlos.</strong> El permiso que no se pidió al principio se puede solicitar retroactivamente, pero no sirve para nada.</p><p>Lo que está en juego no es solo una cuestión de derechos de autor. Es si el periodismo local, el especializado, el de investigación —el que no puede permitirse un equipo jurídico ni una ronda de negociación en San Francisco— va a poder seguir existiendo en un ecosistema donde su trabajo <strong>alimenta sistemas que no le pagan</strong> y que le quitan tráfico. El <em>informe Voss </em>dice que no debería ser así. El mercado, por ahora, alimenta lo contrario.</p><p>Y mientras las directivas maduran en Bruselas, los corpus de entrenamiento están cerrados, los modelos de IA desplegados y los contenidos de miles de redacciones que nunca han recibido —ni recibirán— una llamada de las grandes empresas tecnológicas ya forman parte de la inteligencia artificial que hoy compite con ellas. En la mayoría de los debates sobre <em>copyright</em>, el daño está por venir. Aquí el daño ya se produjo, pero sigue teniendo lugar. Lo que se negocia ahora no es el futuro: es si alguien va a pagar, y a quién, por lo que ya ocurrió. Y por lo que está pasando cada día.</p>]]></description>
      <guid isPermaLink="false"><![CDATA[56c1f86d-52bc-48ac-b5c1-98f010dd5c2c]]></guid>
      <pubDate><![CDATA[Tue, 17 Mar 2026 20:10:52 +0000]]></pubDate>
      <author><![CDATA[Fernando Varela]]></author>
      <enclosure url="https://static.infolibre.es/clip/71574985-cad7-455f-abba-847749599e89_16-9-aspect-ratio_default_0.jpg" length="92339" type="image/jpeg"/>
      <media:content url="https://static.infolibre.es/clip/71574985-cad7-455f-abba-847749599e89_16-9-aspect-ratio_default_0.jpg" type="image/jpeg" fileSize="92339" width="1200" height="675"/>
      <media:title><![CDATA[Los gigantes de la IA tratan de sortear la regulación europea pactando con grandes grupos de comunicación]]></media:title>
      <media:thumbnail url="https://static.infolibre.es/clip/71574985-cad7-455f-abba-847749599e89_16-9-aspect-ratio_default_0.jpg" width="1200" height="675"/>
      <media:keywords><![CDATA[Inteligencia artificial,Meta,ChatGPT,Google,Comisión Europea,Parlamento Europeo,Medios comunicación]]></media:keywords>
    </item>
    <item>
      <title><![CDATA[Sánchez declara la guerra al ‘big tech’: responsabilidad penal para directivos y prohibición a menores de 16]]></title>
      <link><![CDATA[https://www.infolibre.es/medios/sanchez-declara-guerra-big-tech-responsabilidad-penal-directivos-prohibicion-menores-16_1_2138832.html]]></link>
      <description><![CDATA[<p><img src="https://static.infolibre.es/clip/7c8e5119-1c91-45fa-ad70-8bf6daf9290a_16-9-aspect-ratio_default_0.jpg" width="1200" height="675" alt="Sánchez declara la guerra al ‘big tech’: responsabilidad penal para directivos y prohibición a menores de 16"></p><p>Apenas unas horas <a href="https://www.infolibre.es/politica/elon-musk-carga-irene-montero-defensa-regularizacion-inmigrantes-papeles_1_2138089.html" target="_blank">después de replicar, en persona, al dueño de X,</a> el oligarca tecnológico de extrema derecha Elon Musk, por el uso de su plataforma para difundir bulos sobre la regularización de inmigrantes, el presidente del Gobierno, Pedro Sánchez, ha anunciado este martes <strong>un paquete de medidas sin precedentes</strong> para regular las plataformas digitales en España.</p><p>Hace un año, el presidente ya había acusado a la <strong>"tecnocasta" </strong>de tratar de utilizar su poder "omnímodo" para controlar el debate público y la acción gubernamental en todo Occidente y <a href="https://www.infolibre.es/politica/sanchez-pide-ue-actuar-frente-tecnocasta-debe-plantar-cara-amenaza-defender-democracia_1_1931402.html" target="_blank">había llamado a Europa a rebelarse</a> y defender la democracia.</p><p>No se trata de recomendaciones ni de códigos de buenas prácticas: Sánchez ha puesto sobre la mesa<strong> reformas legales </strong>que incluyen responsabilidad penal para los directivos de las grandes tecnológicas, la tipificación de nuevos delitos relacionados con la manipulación algorítmica y la prohibición expresa del acceso a redes sociales para menores de 16 años. Con esta última medida enmienda además la plana a <a href="https://www.infolibre.es/medios/espana-enreda-proteger-menores-redes-sociales-mundo-avanza-prohibirlo_1_2124299.html" target="_blank">la reforma legal impulsada por su propio Gobierno</a> —y que está atascada en el Congreso de los Diputados—, que era mucho menos ambiciosa, porque planteaba que los menores de entre 14 y 16 años pudiesen seguir usando redes sociales si tenían el consentimiento de sus padres (en la actualidad, si los progenitores consienten, pueden acceder aunque tengan menos de 14).</p><p>En un contexto de <strong>creciente preocupación </strong>sobre los daños que las redes sociales causan a sus usuarios, en particular a los más jóvenes, a los procesos electorales y a la salud de las democracias en general, el Gobierno pasa de la retórica a la legislación y lo hace <strong>poniéndose a la cabeza de los países de nuestro entorno.</strong></p><p>La medida más contundente de todas las propuestas por el presidente es la reforma del Código Penal para establecer la <strong>responsabilidad penal directa de los ejecutivos de plataformas digitales</strong>. Hasta ahora, las sanciones recaían sobre las corporaciones, diluidas en multas que apenas arañaban sus astronómicas cuentas de resultados.</p><p>El Ejecutivo quiere cambiar las reglas: si un alto directivo ignora deliberadamente una orden judicial de retirada de contenidos ilícitos, <strong>podrá responder penalmente en persona.</strong> La norma, que se tramitará mediante un Proyecto de Ley Orgánica, pondrá fin —si llega a aprobarse en el Congreso— a la impunidad derivada de la opacidad corporativa. Ya no bastará con escudarse en la complejidad de los algoritmos o en la imposibilidad material de controlar millones de publicaciones.</p><p>Pero la iniciativa no se queda ahí. La segunda gran novedad es <strong>la tipificación penal de la manipulación algorítmica. </strong>Con su propuesta, Sánchez reconoce explícitamente lo que hasta ahora solo han establecido los académicos: los contenidos tóxicos no surgen de forma espontánea en Internet, sino que son creados, impulsados y amplificados por actores concretos y por algoritmos diseñados <strong>para maximizar el beneficio económico.</strong></p><p>La reforma del Código Penal convertirá en delito la manipulación de algoritmos que <strong>facilite deliberadamente la amplificación de contenidos ilegales, </strong>así como la alteración del funcionamiento de sistemas automatizados de procesamiento de datos. Francia ya introdujo delitos similares en 2023, y España toma nota. La idea de que estas tecnologías son neutrales quedaría definitivamente sepultada.</p><p>La tercera medida es la más innovadora, aunque también la más difícil de implementar y, previsiblemente, la más polémica: la creación de <strong>la “huella de odio y polarización”.</strong> Se trataría de un sistema destinado a rastrear, medir y hacer visible cómo cada plataforma fomenta la polarización social y amplifica el odio.</p><p>El objetivo declarado es transformar un fenómeno opaco en algo cuantificable y evaluable, generando<strong> un ranking que señale públicamente a las peores plataformas.</strong> No es solo una herramienta técnica: es un mecanismo de presión social y reputacional. Si funciona, el Gobierno espera que obligue a las empresas a competir no solo por usuarios, sino por no aparecer en lo más alto de una lista que nadie querrá encabezar.</p><p>En el terreno de la protección de menores, el Gobierno da un paso que otros países europeos ya han comenzado a explorar: la prohibición del acceso a redes sociales para menores de 16 años. La medida se incluirá en el Proyecto de Ley de Protección de Personas Menores de Edad en Entornos Digitales que se tramita en el Congreso, y obligará a las plataformas a implantar<strong> sistemas de verificación de edad </strong>que vayan más allá de la simple casilla de “acepto que soy mayor de edad”. El Gobierno quiere controles reales y eficaces, amparado en el artículo 28 de la Ley de Servicios Digitales europea y en las directrices publicadas por la Comisión.</p><p>La quinta medida adopta un tono de ultimátum: tolerancia cero frente a las infracciones vinculadas a <strong>contenido sexualizado de menores. </strong>El Gobierno apunta directamente a plataformas como Grok o TikTok, y anuncia que trabajará conjuntamente con el Ministerio Fiscal para prevenir, detectar, investigar y, en su caso, promover la acción de la justicia. No es una advertencia genérica: es un aviso con nombres propios. Las investigaciones ya están en marcha en Europa, y España se suma a la ofensiva.</p><p>El anuncio de Sánchez coloca a España en<strong> la vanguardia regulatoria europea, </strong>junto a Francia y Reino Unido. Pero la distancia entre el anuncio y la realidad legislativa puede ser larga. Los proyectos de ley deberán tramitarse en las Cortes, donde el Gobierno no tiene mayoría absoluta y donde los <em>lobbies</em> tecnológicos ejercerán toda la presión posible, como ya están haciendo con el Proyecto de Ley de Protección de Personas Menores de Edad. </p><p>La implementación técnica de algunas medidas, como la verificación de edad o la huella de odio, planteará desafíos considerables. Y nadie en el sector espera que las plataformas, acostumbradas a operar con impunidad, se queden quietas, especialmente cuando <strong>cuentan como aliado con el presidente de EEUU, </strong>Donald Trump, que ya en el pasado ha <a href="https://es.euronews.com/business/2025/08/26/trump-amenaza-con-mas-aranceles-a-los-paises-que-gravan-a-las-tecnologicas-de-eeuu" target="_blank">amenazado</a> con aprobar aranceles contra cualquiera que legisle sobre las actividades de sus aliados tecnológicos.</p><p>En cualquier caso, el debate sobre la regulación de las plataformas digitales ha dejado de ser teórico. Y no solo en España. Varios países han comenzado ya a implementar medidas que, aunque parciales, marcan el camino de lo que podría convertirse en un <strong>nuevo paradigma de control </strong>sobre las grandes tecnológicas.</p><p>Reino Unido ya había dado el paso más audaz en materia de responsabilidad directiva. Su <em>Online Safety Act</em>, aprobada en 2023, contempla <strong>penas de cárcel para los ejecutivos </strong>de empresas tecnológicas que incumplan de forma reiterada las órdenes de protección de menores o destruyan pruebas. Es una legislación sin precedentes que traslada la responsabilidad de la corporación al individuo, señalando con nombre y apellidos a quienes toman las decisiones. Y que va más lejos de lo que ha implementado la Unión Europea, que ha optado por la vía de las sanciones económicas: la Ley de Servicios Digitales (DSA, por sus siglas en inglés) impone multas de hasta el 6% de la facturación global, aunque la responsabilidad penal individual solo se activa si se demuestra un delito ordinario.</p><p>En el terreno de la manipulación algorítmica, la DSA no tipifica como delito la programación de algoritmos manipulativos, pero obliga a las plataformas a auditar y mitigar los “riesgos sistémicos” —desinformación, polarización, manipulación del discurso público— bajo amenaza de sanciones millonarias.<strong> Brasil sí ha intentado ir más allá </strong>con su proyecto de ley contra las <em>fake news</em>, que busca criminalizar directamente la difusión masiva automatizada de desinformación, aunque el texto sigue atascado en un debate legislativo intenso.</p><p>La propuesta española de crear una “huella de odio y polarización” —un sistema de trazabilidad del impacto de cada plataforma en la degradación del debate público— <strong>no tiene parangón internacional.</strong> Es una terminología nacida del informe del <a href="https://www.infolibre.es/politica/comite-expertos-gobierno-recomienda-no-seis-anos_1_1909263.html" target="_blank">Comité de Expertos</a> presentado en 2024, y supone una novedad radical en el enfoque regulatorio. Lo más similar en Europa es el sistema de monitorización de la Comisión sobre desinformación, pero se trata de análisis estadístico agregado, no de un rastreo individualizado.</p><p>El Gobierno ha dejado claro que no está solo en esta ofensiva contra las grandes tecnológicas. Ha presentado sus propuestas en el marco de lo que ya se conoce como <strong>la Coalición de los Dispuestos Digitales: </strong>un bloque de seis países europeos que han decidido dejar de esperar al consenso lento de los 27 miembros de la Unión Europea para actuar de inmediato. Junto a España se sitúan Francia, Italia, Portugal, Bélgica y Alemania. Un Gobierno socialdemócrata y cinco de derechas. No es una alianza simbólica: representa a más de 170 millones de ciudadanos y a <strong>las economías más fuertes del continente</strong>. Y su objetivo es crear un <em>estándar de oro</em> regulatorio que las plataformas no puedan ignorar ni esquivar.</p><p>Es, en el fondo, un mensaje de soberanía dirigido directamente a Silicon Valley: si quieren operar en los mercados europeos, las reglas las ponen los Estados, no sus términos y condiciones. Al actuar de forma coordinada, la coalición minimiza la amenaza que algunas plataformas han utilizado en el pasado: la de abandonar un país si la regulación les resulta incómoda. X lo intentó en Australia y lo ha insinuado en otros territorios. Pero no pueden permitirse cerrar el grifo en <strong>los seis mercados más potentes de Europa</strong> a la vez.</p>]]></description>
      <guid isPermaLink="false"><![CDATA[5e055d40-43e0-4a18-9430-799b0857ec88]]></guid>
      <pubDate><![CDATA[Wed, 04 Feb 2026 05:01:50 +0000]]></pubDate>
      <author><![CDATA[Fernando Varela]]></author>
      <enclosure url="https://static.infolibre.es/clip/7c8e5119-1c91-45fa-ad70-8bf6daf9290a_16-9-aspect-ratio_default_0.jpg" length="1910303" type="image/jpeg"/>
      <media:content url="https://static.infolibre.es/clip/7c8e5119-1c91-45fa-ad70-8bf6daf9290a_16-9-aspect-ratio_default_0.jpg" type="image/jpeg" fileSize="1910303" width="1200" height="675"/>
      <media:title><![CDATA[Sánchez declara la guerra al ‘big tech’: responsabilidad penal para directivos y prohibición a menores de 16]]></media:title>
      <media:thumbnail url="https://static.infolibre.es/clip/7c8e5119-1c91-45fa-ad70-8bf6daf9290a_16-9-aspect-ratio_default_0.jpg" width="1200" height="675"/>
      <media:keywords><![CDATA[Menores,Redes sociales,Elon Musk,Mark Zuckerberg,X (Twitter),Meta,desinformación,Extrema derecha]]></media:keywords>
    </item>
    <item>
      <title><![CDATA[Meta nombra a Dina Powell McCormick, exasesora de Trump, como su nueva presidenta]]></title>
      <link><![CDATA[https://www.infolibre.es/internacional/meta-nombra-dina-powell-mccormick-exasesora-trump-nueva-presidenta_1_2126680.html]]></link>
      <description><![CDATA[<p><img src="https://static.infolibre.es/clip/7a66b234-4804-4d31-987a-5bc278b87366_16-9-aspect-ratio_default_0.jpg" width="1200" height="675" alt="Meta nombra a Dina Powell McCormick, exasesora de Trump, como su nueva presidenta"></p><p>El gigante tecnológico <a href="https://www.infolibre.es/temas/meta/"  >Meta </a>ha anunciado este lunes que ha nombrado a <strong>Dina Powell McCormick</strong>, exasesora de <a href="https://www.infolibre.es/temas/donald-trump/"  >Donald Trump</a> durante parte de su primer mandato, como <strong>presidenta y vicepresidenta de la empresa</strong>, informa EFE.</p><p>Powell formaba parte de la junta directiva de Meta hasta el pasado diciembre, <strong>cuando renunció sin especificar el motivo</strong>, y estuvo "profundamente involucrada" a medida que la tecnológica aceleraba su búsqueda en la <a href="https://www.infolibre.es/temas/inteligencia-artificial/"  >inteligencia artificial</a> (IA) y superinteligencia personal, según un comunicado.</p><p>"La experiencia de Dina en los niveles más altos de las finanzas globales la hacen especialmente adecuada para ayudar a Meta a gestionar esta próxima fase de crecimiento como presidenta y vicepresidenta de la empresa", ha manifestado <a href="https://www.infolibre.es/temas/mark-zuckerberg/"  >Mark Zuckerberg</a>.</p><p>Por su parte, Trump ha felicitado en Truth Social a McCormick, que se desempeñó como <a href="https://www.infolibre.es/internacional/ivanka-trump-tendra-propio-despacho-ala-oeste-casa-blanca_1_1138232.html"  >su asesora adjunta de Seguridad Nacional</a> hasta 2018, y la ha definido como <strong>una persona "fantástica" y "talentosa"</strong> que "sirvió a la administración Trump con fuerza y distinción".</p><p>Según el comunicado de Meta, Powell, de 52 años y originaria de Egipto, formará parte de <strong>su equipo directivo y ayudará a guiar la estrategia y la ejecución general</strong> de la empresa. Así, colaborará con los equipos de informática e infraestructura para garantizar que las inversiones multimillonarias de la empresa se ajusten a sus objetivos "y generen un impacto económico positivo en las comunidades" donde opera.</p><p>Además, <strong>su papel como presidenta y vicepresidenta</strong> de la tecnológica "impulsará la creación de nuevas alianzas estratégicas de capital y la búsqueda de formas innovadoras de ampliar nuestra capacidad de inversión a largo plazo", incide la compañía.</p><p>Powell trabajó durante 16 años en Goldman Sachs y en 2023 se unió a la firma de inversiones BDT & MSD Partners, y además trabajó para <strong>el Departamento de Estado</strong> durante la administración de <a href="https://www.infolibre.es/temas/george-w-bush/"  >George W. Bush</a>.</p>]]></description>
      <guid isPermaLink="false"><![CDATA[3e1ba8c5-da74-4203-8a6d-acfc75493f26]]></guid>
      <pubDate><![CDATA[Mon, 12 Jan 2026 17:00:52 +0000]]></pubDate>
      <author><![CDATA[infoLibre]]></author>
      <enclosure url="https://static.infolibre.es/clip/7a66b234-4804-4d31-987a-5bc278b87366_16-9-aspect-ratio_default_0.jpg" length="3736418" type="image/jpeg"/>
      <media:content url="https://static.infolibre.es/clip/7a66b234-4804-4d31-987a-5bc278b87366_16-9-aspect-ratio_default_0.jpg" type="image/jpeg" fileSize="3736418" width="1200" height="675"/>
      <media:title><![CDATA[Meta nombra a Dina Powell McCormick, exasesora de Trump, como su nueva presidenta]]></media:title>
      <media:thumbnail url="https://static.infolibre.es/clip/7a66b234-4804-4d31-987a-5bc278b87366_16-9-aspect-ratio_default_0.jpg" width="1200" height="675"/>
      <media:keywords><![CDATA[Meta,Mark Zuckerberg,Estados Unidos,Donald Trump,Empresas]]></media:keywords>
    </item>
    <item>
      <title><![CDATA[La revista 'Time' elige como Persona del Año de 2025 a los "arquitectos" de la IA]]></title>
      <link><![CDATA[https://www.infolibre.es/internacional/arquitectos-ia-son-persona-ano-2025-revista-time_1_2113130.html]]></link>
      <description><![CDATA[<p><img src="https://static.infolibre.es/clip/3120a194-88b0-4257-8cd1-d51fccf812c2_16-9-discover-aspect-ratio_default_1020712.jpg" width="2063" height="1160" alt="La revista 'Time' elige como Persona del Año de 2025 a los "arquitectos" de la IA"></p><p>Los arquitectos de la <a href="https://www.infolibre.es/temas/inteligencia-artificial/" target="_blank" >inteligencia artificial</a> (IA), como Mark Zuckerberg, Elon Musk, Jensen Huang y Sam Altman, fueron elegidos este jueves como Persona del Año 2025 por <strong>la revista </strong><em><strong>Time</strong></em>, "por inaugurar la era de las máquinas pensantes, por asombrar y preocupar a la humanidad, por transformar el presente y trascender los límites de lo posible".</p><p>La foto de la portada muestra a diversos directores ejecutivos de empresas tecnológicas almorzando sentados en una viga de acero suspendida a gran altura sobre la ciudad de Nueva York, un guiño a la famosa fotografía <em><strong>Lunch atop a Skyscraper</strong></em><em> </em>(Almuerzo en la cima de un rascacielos) de 1932.</p><p>En este caso los protagonistas de la foto son: <strong>Zuckerberg</strong>, líder de Meta; <strong>Lisa Su</strong>, directora ejecutiva de AMD; <strong>Musk</strong>, director ejecutivo de Tesla, SpaceX, fundador de xAI y cofundador original de OpenAI; <strong>Huang</strong>, director ejecutivo de Nvidia; <strong>Altman</strong>, líder de OpenAI; <strong>Satya Nadella</strong>, director ejecutivo de Microsoft; <strong>Demis Hassabis</strong>, director ejecutivo de Google DeepMind; <strong>Dario Amodei</strong>, director ejecutivo de Anthropic; y <strong>Fei-Fei Li</strong>, codirectora del Instituto de IA de la Universidad de Stanford.</p><p>"2025 fue el año en que el potencial de la inteligencia artificial se manifestó en todo su esplendor, y cuando quedó claro que no habría <strong>vuelta atrás</strong>", destaca este jueves la revista. En 2024, los editores de <em>Time</em> eligieron al presidente de Estados Unidos, <a href="https://www.infolibre.es/temas/donald-trump/" target="_blank" >Donald Trump</a>, y otras elecciones recientes incluyen a la superestrella del pop Taylor Swift, al presidente ucraniano Volodímir Zelensky y a Musk, pero en esa ocasión en solitario.</p><p>La publicación empezó a otorgar este título <strong>en 1927</strong> y se llamó Hombre del Año hasta 1999.</p><p>Este año, además, la revista nombró al actor <strong>Leonardo DiCaprio</strong> como el Artista del Año; al director ejecutivo de YouTube, Neal Mohan, como CEO del Año; a la jugadora de baloncesto A'ja Wilson como Atleta del Año; y a la película de animación <em>KPop Demon Hunters </em>como Revelación del Año. </p>]]></description>
      <guid isPermaLink="false"><![CDATA[439d70a5-d3db-4d5a-b753-f2dccc931ba3]]></guid>
      <pubDate><![CDATA[Thu, 11 Dec 2025 18:45:09 +0000]]></pubDate>
      <author><![CDATA[infoLibre]]></author>
      <enclosure url="https://static.infolibre.es/clip/3120a194-88b0-4257-8cd1-d51fccf812c2_16-9-discover-aspect-ratio_default_1020712.jpg" length="544057" type="image/jpeg"/>
      <media:content url="https://static.infolibre.es/clip/3120a194-88b0-4257-8cd1-d51fccf812c2_16-9-discover-aspect-ratio_default_1020712.jpg" type="image/jpeg" fileSize="544057" width="2063" height="1160"/>
      <media:title><![CDATA[La revista 'Time' elige como Persona del Año de 2025 a los "arquitectos" de la IA]]></media:title>
      <media:thumbnail url="https://static.infolibre.es/clip/3120a194-88b0-4257-8cd1-d51fccf812c2_16-9-discover-aspect-ratio_default_1020712.jpg" width="2063" height="1160"/>
      <media:keywords><![CDATA[Estados Unidos,Meta,Mark Zuckerberg]]></media:keywords>
    </item>
    <item>
      <title><![CDATA[La Comisión Europea abre investigación a Meta por el acceso de proveedores de IA a WhatsApp]]></title>
      <link><![CDATA[https://www.infolibre.es/internacional/comision-europea-abre-investigacion-meta-acceso-proveedores-ia-whatsapp_1_2108987.html]]></link>
      <description><![CDATA[<p><img src="https://static.infolibre.es/clip/7a66b234-4804-4d31-987a-5bc278b87366_16-9-aspect-ratio_default_0.jpg" width="1200" height="675" alt="La Comisión Europea abre investigación a Meta por el acceso de proveedores de IA a WhatsApp"></p><p>La<strong> Comisión Europea </strong>anunció este jueves la apertura de una investigación antimonopolio sobre la nueva política de la estadounidense <strong>Meta</strong> relativa al acceso de proveedores de <strong>inteligencia artificial (IA)</strong> a su servicio de mensajería <strong>WhatsApp, </strong>según informa EFE.</p><p>"Estamos investigando si la nueva política de Meta podría ser ilegal conforme a las normas de competencia y si debemos actuar con rapidez para evitar un posible perjuicio irreparable a la competencia en el ámbito de la IA", declaró en un comunicado la comisaria de Competencia y vicepresidenta de la Comisión Europea, <strong>Teresa Ribera.</strong></p><p>El Ejecutivo comunitario sospecha que la nueva política de Meta sobre el acceso de los<a href="https://www.infolibre.es/medios/ia-resume-conversaciones-trampa-ceder-control-mensajes-algoritmo_1_2025557.html" target="_blank" > proveedores de inteligencia artificial a WhatsApp,</a> anunciada en octubre de 2025, podría <strong>infringir las normas de competencia</strong> de la UE.</p><p>"Los proveedores de IA competidores podrían quedar<strong> bloqueados </strong>para llegar a sus clientes a través de WhatsApp" mientras que "el servicio propio de Meta, Meta AI, seguiría estando accesible para los usuarios de la plataforma", señaló la Comisión.</p><p>La nueva política de la tecnológica de <a href="https://www.infolibre.es/temas/mark-zuckerberg/" target="_blank" >Mark Zuckerberg</a> "prohíbe a los proveedores de IA utilizar una herramienta que permite a las empresas comunicarse con sus clientes a través de WhatsApp, la <em>WhatsApp Business Solution</em>, cuando <strong>la IA sea el servicio principal</strong> que ofrecen", indicó la Comisión.</p><p>Bruselas entiende que las compañías sí podrán seguir usando herramientas IA para realizar "funciones accesorias o de apoyo", como la <strong>atención automatizada</strong> al cliente mediante WhatsApp y teme "que esta nueva política pueda impedir que proveedores de IA de terceros ofrezcan sus servicios a través de WhatsApp en el Espacio Económico Europeo (EEE)", indicó.</p><p>La Comisión cree que "Meta aplicará la nueva política mediante una<strong> actualización de los términos y condiciones</strong> de WhatsApp para usuarios empresariales, los <em>WhatsApp Business Application Programming Interface terms</em>". </p><p>Para los proveedores de IA que ya están presentes en WhatsApp, la actualización "se aplicará a partir del 15 de enero de 2026, mientras que para los <strong>nuevos proveedores de IA en WhatsApp</strong> ya es aplicable desde el 15 de octubre de 2025".</p><p>La investigación formal cubrirá el EEE, excepto<a href="https://www.infolibre.es/temas/italia/" target="_blank" > Italia </a>para evitar "un solapamiento" con los procedimientos en curso de la<strong> Autoridad Italiana de Competencia </strong>sobre la posible imposición de medidas cautelares a Meta.</p><p>Si se confirman, las prácticas investigadas podrían vulnerar las normas de competencia de la UE que<strong> prohíben el abuso de posición dominante,</strong> agregó Bruselas.</p><p>"Los mercados de IA están en pleno auge en Europa y más allá (...). Debemos garantizar que los ciudadanos y las empresas europeas puedan beneficiarse plenamente de esta<strong> revolución tecnológica</strong> y actuar para evitar que los grandes actores digitales dominantes abusen de su poder para expulsar a competidores innovadores", añadió Ribera.</p><p>La Comisión llevará ahora a cabo su <strong>investigación en profundidad</strong> con carácter prioritario. La apertura de una investigación formal no prejuzga su resultado, indicó el Ejecutivo, que recordó que "no existe un plazo legal para finalizar una investigación antimonopolio". </p>]]></description>
      <guid isPermaLink="false"><![CDATA[2d6fa33c-a65a-45e6-97a3-7d5a3a6cc362]]></guid>
      <pubDate><![CDATA[Thu, 04 Dec 2025 10:43:51 +0000]]></pubDate>
      <author><![CDATA[infoLibre]]></author>
      <enclosure url="https://static.infolibre.es/clip/7a66b234-4804-4d31-987a-5bc278b87366_16-9-aspect-ratio_default_0.jpg" length="3736418" type="image/jpeg"/>
      <media:content url="https://static.infolibre.es/clip/7a66b234-4804-4d31-987a-5bc278b87366_16-9-aspect-ratio_default_0.jpg" type="image/jpeg" fileSize="3736418" width="1200" height="675"/>
      <media:title><![CDATA[La Comisión Europea abre investigación a Meta por el acceso de proveedores de IA a WhatsApp]]></media:title>
      <media:thumbnail url="https://static.infolibre.es/clip/7a66b234-4804-4d31-987a-5bc278b87366_16-9-aspect-ratio_default_0.jpg" width="1200" height="675"/>
      <media:keywords><![CDATA[Meta,Redes sociales,WhatsApp,Inteligencia artificial,Comisión Europea,Europa,Tecnología digital]]></media:keywords>
    </item>
    <item>
      <title><![CDATA[El PSOE pide la comparecencia de Zuckerberg en el Congreso por el espionaje a millones de usuarios]]></title>
      <link><![CDATA[https://www.infolibre.es/politica/psoe-pide-comparecencia-zuckerberg-congreso-espionaje-millones-usuarios_1_2108943.html]]></link>
      <description><![CDATA[<p><img src="https://static.infolibre.es/clip/1c7a08c4-e4cb-43ba-b68c-04ea11505a45_16-9-aspect-ratio_default_0.jpg" width="1200" height="675" alt="El PSOE pide la comparecencia de Zuckerberg en el Congreso por el espionaje a millones de usuarios"></p><p>El PSOE ha registrado en el Congreso la petición de comparecencia de <a href="https://www.infolibre.es/opinion/plaza-publica/polarizacion-social-zuckerberg-musk-servicio-desinformacion_129_1934324.html"  ><strong>Mark Zuckerberg</strong></a>, fundador y director ejecutivo de Meta; de <strong>Javier Oliván</strong>, jefe de operaciones (COO) de la compañía y de <strong>José Luis Zimmermann</strong>, director de Asuntos Públicos para España y Portugal, por el supuesto espionaje a millones de usuarios.</p><p>El presiente el Gobierno, Pedro Sánchez, ya anunció hace varias semanas, en una intervención en el foro Metafuturo (Atresmedia), que <strong>los socialistas llevarían al Congreso a los responsables de Meta</strong> para que den explicaciones por haber rastreado sin permiso la navegación en teléfonos móviles.</p><p>El gigante estadounidense <a href="https://www.infolibre.es/temas/meta/"  >Meta</a>, propietario de Facebook, Instagram y Whatsapp, aseguró poco después, en un comunicado remitido a EFE, que está dispuesto a colaborar "de forma constructiva con las autoridades en este asunto".</p><p>Los socialistas, que han pedido también la <a href="https://www.psoe.es/media-content/2025/12/Solicitudes-comparecencia-META.pdf"  >comparecencia de expertos</a> ante la Comisión de Economía, Comercio y Transformación Digital del Congreso, recuerdan que la investigación anunciada por Sánchez se <strong>deriva de la información revelada por varios centros europeos</strong> sobre la posible violación de la privacidad de millones de usuarios en España y Europa.</p><p>"<strong>En España la ley está por encima de cualquier algoritmo</strong> o gran tecnológica y quien vulnere nuestros derechos, pagará las consecuencias", dijo Sánchez.</p><p>Se trata de una investigación realizada por centros de referencia internacionales —IMDEA Networks (España), la Universidad Católica de Lovaina (Bélgica) y la Universidad de Radboud (Países Bajos)—, que reveló que <strong>Meta utilizó durante casi un año un </strong><a href="https://www.infolibre.es/medios/condena-meta-revela-redes-sociales-carne-canon-publicitaria_1_2103914.html"  ><strong>mecanismo oculto para rastrear</strong></a><strong> la actividad web</strong> de usuarios de dispositivos Android a través de las aplicaciones de Facebook e Instagram.</p><p>Este sistema <strong>permitía a la compañía registrar las páginas visitadas</strong>, incluso cuando los usuarios empleaban modo incógnito o VPN, y vincular esa información a sus perfiles personales en las plataformas de Meta, "un espionaje silencioso sin ningún tipo de consentimiento explícito", subraya el grupo socialista.</p><p>En un comunicado, señala que, de confirmarse, esta práctica supondría una <strong>violación de múltiples normativas europeas</strong>: el RGPD, la Directiva ePrivacy, la Ley de Mercados Digitales (DMA) y la Ley de Servicios Digitales (DSA), y recuerda que Meta ya se enfrenta a demandas colectivas en Alemania, Estados Unidos y Canadá por hechos similares.</p>]]></description>
      <guid isPermaLink="false"><![CDATA[88bc9528-ea48-4d35-8f2b-295354773676]]></guid>
      <pubDate><![CDATA[Thu, 04 Dec 2025 09:38:34 +0000]]></pubDate>
      <author><![CDATA[infoLibre]]></author>
      <enclosure url="https://static.infolibre.es/clip/1c7a08c4-e4cb-43ba-b68c-04ea11505a45_16-9-aspect-ratio_default_0.jpg" length="810136" type="image/jpeg"/>
      <media:content url="https://static.infolibre.es/clip/1c7a08c4-e4cb-43ba-b68c-04ea11505a45_16-9-aspect-ratio_default_0.jpg" type="image/jpeg" fileSize="810136" width="1200" height="675"/>
      <media:title><![CDATA[El PSOE pide la comparecencia de Zuckerberg en el Congreso por el espionaje a millones de usuarios]]></media:title>
      <media:thumbnail url="https://static.infolibre.es/clip/1c7a08c4-e4cb-43ba-b68c-04ea11505a45_16-9-aspect-ratio_default_0.jpg" width="1200" height="675"/>
      <media:keywords><![CDATA[Mark Zuckerberg,Meta,Facebook,PSOE,Congreso de los Diputados,Redes sociales]]></media:keywords>
    </item>
    <item>
      <title><![CDATA[Lo que la condena a Meta revela sobre por qué las redes sociales nos usan como carne de cañón publicitaria]]></title>
      <link><![CDATA[https://www.infolibre.es/medios/condena-meta-revela-redes-sociales-carne-canon-publicitaria_1_2103914.html]]></link>
      <description><![CDATA[<p><img src="https://static.infolibre.es/clip/7af18513-9280-4a37-92a2-b9a077d20e9c_16-9-aspect-ratio_default_0.jpg" width="1200" height="675" alt="Lo que la condena a Meta revela sobre por qué las redes sociales nos usan como carne de cañón publicitaria"></p><p>Durante años, <strong>Meta</strong> jugó en el <strong>mercado publicitario español</strong> (y europeo) con una baraja marcada. Esa es, en esencia, la conclusión de <a href="https://www.infolibre.es/medios/meta-condenada-pagar-479-millones-medios-espanoles-competencia-desleal_1_2101129.html" target="_blank">la </a><a href="https://www.infolibre.es/medios/meta-condenada-pagar-479-millones-medios-espanoles-competencia-desleal_1_2101129.html" target="_blank"><strong>sentencia </strong></a><strong>del Juzgado de lo Mercantil nº 15 de Madrid</strong> que ha obligado a la compañía del multimillonario estadounidense Mark Zuckerberg —propietaria de <strong>Facebook</strong> e <strong>Instagram</strong>— a pagar casi <strong>500 millones de euros</strong> en compensaciones a los grandes medios agrupados en la <strong>Asociación de Medios de Información (AMI)</strong>, la antigua patronal de prensa AEDE, dominada por las grandes cabeceras de papel.</p><p>No se trata de una simple disputa comercial: el fallo describe un sistema construido sobre la explotación masiva e ilegal de los <strong>datos de los usuarios</strong> sin su conocimiento ni autorización expresa, un modelo que permitió a Meta ofrecer <strong>publicidad más eficaz</strong> que la de todo su ecosistema competidor… precisamente porque violaba la ley.</p><p>La resolución desmonta el corazón del <strong>negocio publicitario de Meta en España</strong>. Primero, declara que la compañía actuó con <strong>deslealtad competitiva</strong>: su posición dominante no era fruto únicamente de la escala o de la innovación, sino de una ventaja indebida obtenida al incumplir el <a href="https://www.infolibre.es/medios/proteccion-datos-prohibe-meta-implementar-espana-funcionalidades-electorales-9j_1_1805922.html" target="_blank"><strong>Reglamento General de Protección de Datos </strong></a><strong>(RGPD)</strong>. En otras palabras: <strong>Meta ganaba porque hacía lo que nadie más podía ni debía hacer</strong>.</p><p>El relato judicial es un catálogo de ilegalidades sostenidas durante años. Entre 2018 y 2023, la compañía trató <strong>datos personales</strong> para <a href="https://www.infolibre.es/politica/consumo-obligara-empresas-detallar-algoritmos-publicidad-personalizada_1_1960525.html" target="_blank">elaborar </a><a href="https://www.infolibre.es/politica/consumo-obligara-empresas-detallar-algoritmos-publicidad-personalizada_1_1960525.html" target="_blank"><strong>publicidad personalizada</strong></a> (anuncios adaptados al comportamiento del usuario) sin una <strong>base legal válida</strong>. Ni la supuesta “necesidad contractual” —un argumento que el Comité Europeo de Protección de Datos terminó tumbando— ni el posterior giro al “interés legítimo” superaron el escrutinio jurídico. El tribunal insiste en algo fundamental: la <strong>publicidad personalizada no es un elemento esencial del servicio de una red social</strong>, es simplemente el núcleo del negocio de Meta. Y ese negocio debe ajustarse a la ley, no al revés.</p><p>Pero la <strong>sentencia</strong> va más allá. Señala infracciones estructurales en <strong>transparencia, lealtad y minimización de datos</strong>. Meta recopiló información de forma masiva y sin distinción, tanto dentro de sus plataformas (<strong>mensajes, interacciones, fotos, vídeos</strong>) como en la navegación externa mediante <strong>píxeles de seguimiento</strong> (una diminuta imagen invisible que se incrusta en una web o correo electrónico para recoger información del usuario cada vez que la página o el email se cargan). Ese barrido indiscriminado incluía <a href="https://www.infolibre.es/medios/ia-resume-conversaciones-trampa-ceder-control-mensajes-algoritmo_1_2025557.html" target="_blank">datos especialmente sensibles</a> —<strong>opiniones políticas, salud, orientación sexual o creencias religiosas</strong>— para cuyo tratamiento habría sido imprescindible un <strong>consentimiento explícito</strong> que nunca llegó.</p><p>Con ese arsenal de información, <strong>Facebook</strong> e <strong>Instagram</strong> lograban <strong>segmentaciones publicitarias imposibles</strong> para los medios digitales españoles que, obligados a cumplir la normativa, competían con las manos atadas. La sentencia lo explica sin rodeos: la amplitud y profundidad de los datos obtenidos ilegalmente permitía a Meta construir <strong>publicidad más precisa, más agresiva y más rentable</strong>.</p><p>Meta puede presentar recurso ante la <strong>Audiencia Provincial de Madrid</strong> y ya ha anunciado que lo hará. Pero, de momento, los medios que forman parte de <strong>AMI</strong> se frotan las manos pensando en repartirse los <strong>479 millones de euros</strong> más intereses que el fallo fija como <strong>indemnización por lucro cesante</strong>. Es decir, el dinero que <strong>supuestamente dejaron de ganar</strong> en el mercado publicitario porque <strong>Meta hizo trampas</strong>, y al que no tendrán acceso el resto de soportes publicitarios que no presentaron cargos contra el gigante tecnológico estadounidense, incluidos todos los medios que no forman parte de AMI.</p><p>La clave de la sentencia, que puede indicar el camino a otras semejantes presentadas en Europa —Francia es un ejemplo—, se basa en el <strong>incumplimiento acreditado de la legislación europea en protección de datos</strong>. Pero el fallo va un paso más allá: sostiene que esa <strong>infracción masiva</strong> no fue un mero incumplimiento administrativo, sino una <strong>ventaja competitiva ilegal</strong> que alteró el mercado y dejó en inferioridad a los medios que sí estaban obligados a respetar la normativa.</p><p>El razonamiento del juzgado es directo: si una empresa levanta su <strong>modelo de negocio sobre datos obtenidos sin base legal</strong>, la posición que alcanza en el mercado no es legítima. Y Meta, a juicio del tribunal, lo hizo durante cinco años. Primero, intentando justificar la <strong>publicidad personalizada</strong> como si fuera necesaria para ejecutar el contrato con el usuario; después, refugiándose en un supuesto <strong>interés legítimo</strong> que la justicia europea ya ha descartado.</p><p>En ambos tramos, el <strong>tratamiento de datos</strong> —el mismo que alimentaba la maquinaria publicitaria de <strong>Facebook</strong> e <strong>Instagram</strong>— era ilegal. Y esa ilicitud, argumenta el juez, se tradujo en <strong>poder de mercado</strong>.</p><p>La clave está en el <strong>volumen y la precisión</strong>. Mientras los medios españoles —incluidos los agrupados en <strong>AMI</strong>— solo pueden trabajar con datos limitados y normalmente anonimizados, Meta manejaba millones de perfiles detallados, incluidos rastros recopilados fuera de la propia plataforma mediante <strong>píxeles de seguimiento</strong> y otras tecnologías. Ese diferencial de información permitía a <strong>Facebook</strong> e <strong>Instagram</strong> ofrecer <strong>publicidad dirigida más eficaz, más barata para el anunciante y más atractiva en términos de resultados</strong>.</p><p>La prensa, concluye el fallo, nunca podría competir en igualdad de condiciones: no porque no invierta, sino porque no puede —por ley— acceder al nivel de detalle que Meta obtenía infringiendo los <strong>reglamentos europeos</strong>.</p><p>El juzgado se apoya en esta idea para establecer el <strong>nexo causal</strong>: si <strong>Meta</strong> no hubiera vulnerado la normativa, no habría obtenido esos <strong>ingresos publicitarios</strong>. En consecuencia, todo lo ingresado de forma neta entre 2018 y 2023 —<strong>5.281,69 millones de euros,</strong> según la pericial aceptada por el tribunal y propuesta por <strong>AMI</strong>— se considera potencialmente desviado del mercado. La ausencia de las cuentas de Meta en España, que la compañía no aportó pese a tener “facilidad probatoria”, llevó al juzgado a aceptar íntegramente las cifras de la antigua patronal de la prensa de papel española.</p><p>Acotado —en ausencia de datos de Meta— lo que la empresa supuestamente ganó en España en esos años, ¿cómo decide el tribunal cuánto de ese volumen astronómico habría terminado en las cuentas de resultados de la prensa si <strong>Facebook</strong> e <strong>Instagram</strong> hubieran competido bajo las mismas reglas?</p><p>El juzgado optó por una metodología relativamente extendida en competencia: aplicar la <strong>cuota de mercado legítima</strong> de cada afectado sobre la cifra total considerada ilícita. Como <strong>AMI</strong> no mantuvo su propuesta de acotar el mercado solo a la <strong>publicidad digital</strong>, el tribunal acabó tomando como referencia la definición más amplia presentada por <strong>Meta</strong>: el <strong>mercado publicitario español en su conjunto</strong>, desde la televisión a los diarios impresos, pasando por internet y la radio.</p><p>A partir de ahí, la mecánica es aritmética: se cruzan los <strong>ingresos netos del mercado total</strong> —calculados a partir de informes de <strong>InfoAdex</strong> (la empresa que elabora cada año las <strong>estimaciones oficiales de inversión publicitaria en España</strong>) ajustados con un coeficiente elaborado por la <strong>Comisión Nacional del Mercado y de la Competencia (CNMC)</strong>— con los ingresos netos de cada uno de los demandantes. El resultado: <strong>AMI y las empresas asociadas</strong> representan, según el tribunal, la parte más significativa del mercado y, por tanto, del daño. Su <strong>lucro cesante</strong> fue fijado en <strong>479,12 millones de euros</strong>, una cifra inédita en una <strong>sentencia civil española contra una gran tecnológica</strong> (a menor escala, <strong>Europa Press</strong> recibe 2,57 millones y <strong>Radio Blanca</strong> algo más de 13.500 euros).</p><p>¿Quién se llevará l<strong>a parte más importante </strong>de la indemnización si la sentencia alcanza algún día la condición de firme? AMI no lo ha revelado, pero todo indica que los casi 500 millones acabarán, sobre todo, en manos de las empresas editoras de<em> El País, El Mundo</em> y <em>La Vanguardia,</em> así como del grupo Editorial Prensa Ibérica. </p>]]></description>
      <guid isPermaLink="false"><![CDATA[1567d0d5-47c7-4d12-acbd-80b0fa8a0435]]></guid>
      <pubDate><![CDATA[Sun, 30 Nov 2025 05:01:05 +0000]]></pubDate>
      <author><![CDATA[Fernando Varela]]></author>
      <enclosure url="https://static.infolibre.es/clip/7af18513-9280-4a37-92a2-b9a077d20e9c_16-9-aspect-ratio_default_0.jpg" length="280376" type="image/jpeg"/>
      <media:content url="https://static.infolibre.es/clip/7af18513-9280-4a37-92a2-b9a077d20e9c_16-9-aspect-ratio_default_0.jpg" type="image/jpeg" fileSize="280376" width="1200" height="675"/>
      <media:title><![CDATA[Lo que la condena a Meta revela sobre por qué las redes sociales nos usan como carne de cañón publicitaria]]></media:title>
      <media:thumbnail url="https://static.infolibre.es/clip/7af18513-9280-4a37-92a2-b9a077d20e9c_16-9-aspect-ratio_default_0.jpg" width="1200" height="675"/>
      <media:keywords><![CDATA[Meta,Mark Zuckerberg,Empresas,Ley protección datos,Publicidad]]></media:keywords>
    </item>
    <item>
      <title><![CDATA[Meta, condenada a pagar 479 millones a los medios españoles por competencia desleal]]></title>
      <link><![CDATA[https://www.infolibre.es/medios/meta-condenada-pagar-479-millones-medios-espanoles-competencia-desleal_1_2101129.html]]></link>
      <description><![CDATA[<p><img src="https://static.infolibre.es/clip/7a66b234-4804-4d31-987a-5bc278b87366_16-9-aspect-ratio_default_0.jpg" width="1200" height="675" alt="Meta, condenada a pagar 479 millones a los medios españoles por competencia desleal"></p><p>Un juzgado de Madrid ha condenado a<strong> </strong><a href="https://www.infolibre.es/internacional/meta-utiliza-fotos-chicas-escolares-publicitar-red-social-threads_1_2066310.html"  >Meta</a> a pagar <strong>479 millones de euros</strong> a 87 editoras de prensa digital española y agencias de noticias por haber obtenido <strong>ventaja competitiva </strong>publicitaria para Facebook e Instagram de forma desleal infringiendo las normas europeas de protección de datos, según informa EFE.</p><p>En una sentencia, el Juzgado de lo Mercantil número 15 de Madrid estima de forma parcial las pretensiones de los medios -que reclamaban 551 millones de euros- al entender que <strong>Meta utiliza indebidamente datos personales </strong>protegidos de los usuarios de Facebook e Instagram para insertar publicidad en esas redes sociales.</p><p>Esa es la condena principal de la sentencia dictada por el juez Teodoro Ladrón Roda, contra la que cabe recurso y por la que Meta, en principio, <strong>tendría que pagar esta cuantía a las editoras de prensa y sociedades cesionarias</strong> <strong>de derechos</strong> de explotación de publicidad demandantes.</p><p>Pero, además, la compañía matriz de <a href="https://www.infolibre.es/medios/juez-decidira-si-facebook-instagram-whatsapp-privaron-medios-publicidad-usando-datos-ilegales_1_2073401.html"  ><strong>Facebook e Instagram</strong></a><strong> tendrá que abonar más de 60 millones</strong> <strong>en concepto de intereses</strong>, 2,5 millones para resarcir a la agencia Europa Press más otros 328.000 euros de intereses, y cerca de 14.000 euros deberá pagar a Radio Blanca. </p><p>Así lo ha establecido el juez tras la demanda de AMI contra el gigante tecnológico estadounidense al considerar que entre el 25 mayo de 2018 y el 31 julio de 2023 <strong>utilizó datos personales sin un consentimiento</strong> <strong>válido</strong> para así reforzar su negocio publicitario y restar ingresos a los <a href="https://www.infolibre.es/medios/"  >medios de información</a>. </p><p>En concreto, las cabeceras de prensa le acusaban de incumplir el Reglamento General de Protección de Datos (RGPD) europeo, aprobado en 2018, que <strong>supuso un antes y un después en el uso de la información personal</strong> ya que se obligó a las empresas a obtener consentimiento expreso y claro de los usuarios para poder utilizar sus datos personales y venderles publicidad personalizada.</p><p>Ahora, el juez ha entendido también que esta infracción de las normas le ha dado una <strong>ventaja competitiva y "desleal"</strong> respecto al resto de los medios digitales y las agencias de noticias, como consecuencia del abuso de dominio" y dado "el enorme volumen de la base de datos de usuarios de Meta en España" y "como consecuencia del abuso de dominio".</p><p>"Esta ventaja es significativa -argumenta- porque Meta ha podido tratar una <strong>cantidad de datos de cada usuario mucho mayor</strong> que si hubiera utilizado la base del consentimiento" que establece el reglamento europeo, que hubiera exigido el consentimiento explicito del usuario".</p><p>El magistrado fundamenta la sentencia en la <a href="https://www.boe.es/buscar/act.php%3Fid%3DBOE-A-1991-628"  >Ley de Competencia Desleal</a>, que considera como tal prevalerse en el mercado de una ventaja competitiva adquirida mediante la infracción de las leyes.</p><p>Meta, según el juez, "no ha fallado en utilizar la tecnología adecuada para <strong>conseguir muchos y buenos perfiles</strong> para realizar la publicidad comportamental". "Ha fallado -prosigue- en la forma de obtener y utilizar los datos personales porque ha incumplido el RGPD en el periodo relevante".</p><p>Según la sentencia, Meta "<strong>usó los datos de millones de usuarios de forma ilícita</strong>, obteniendo así una ventaja competitiva que jamás podrán igualar las demandantes que también realizan 'publicidad on line en display'", fundamentalmente, en prensa digital. La 'publicidad on line en display' es la que aparece cuando se lee gratuitamente una noticia de prensa en un periódico digital.</p><p>El dinero ganado por Meta infringiendo el reglamento <strong>deberá repartirse al resto de los competidores del mercado</strong> <strong>publicitario español</strong>, en función de la cuota de mercado que tenía la prensa digital durante esos cinco años. </p><p>La resolución, que todavía no es firme y que <strong>puede ser recurrida en apelación ante la Audiencia Provincial de Madrid</strong>, podría marcar un precedente relevante en el sector publicitario español y podría tener repercusiones en el ámbito europeo.</p>]]></description>
      <guid isPermaLink="false"><![CDATA[d65bce85-d6ff-428b-a32f-1d3a0b4ead10]]></guid>
      <pubDate><![CDATA[Thu, 20 Nov 2025 11:05:09 +0000]]></pubDate>
      <author><![CDATA[infoLibre]]></author>
      <enclosure url="https://static.infolibre.es/clip/7a66b234-4804-4d31-987a-5bc278b87366_16-9-aspect-ratio_default_0.jpg" length="3736418" type="image/jpeg"/>
      <media:content url="https://static.infolibre.es/clip/7a66b234-4804-4d31-987a-5bc278b87366_16-9-aspect-ratio_default_0.jpg" type="image/jpeg" fileSize="3736418" width="1200" height="675"/>
      <media:title><![CDATA[Meta, condenada a pagar 479 millones a los medios españoles por competencia desleal]]></media:title>
      <media:thumbnail url="https://static.infolibre.es/clip/7a66b234-4804-4d31-987a-5bc278b87366_16-9-aspect-ratio_default_0.jpg" width="1200" height="675"/>
      <media:keywords><![CDATA[Meta,Facebook,Instagram,Redes sociales,Medios comunicación,Mark Zuckerberg,Prensa,Prensa online]]></media:keywords>
    </item>
    <item>
      <title><![CDATA[Un juez decidirá si Facebook e Instagram privaron de publicidad a los medios usando datos ilegales]]></title>
      <link><![CDATA[https://www.infolibre.es/medios/juez-decidira-si-facebook-instagram-whatsapp-privaron-medios-publicidad-usando-datos-ilegales_1_2073401.html]]></link>
      <description><![CDATA[<p><img src="https://static.infolibre.es/clip/95483ce0-c71b-4d7b-b399-eb068acf917e_16-9-aspect-ratio_default_0.jpg" width="1200" height="675" alt="Un juez decidirá si Facebook e Instagram privaron de publicidad a los medios usando datos ilegales"></p><p>La <strong>batalla por la tarta publicitaria en España</strong> llega a los tribunales. El juez <strong>Teodoro Ladrón Roda</strong>, titular del Juzgado de lo Mercantil número 15 de Madrid, será quien decida en la disputa, sin precedentes en España, que enfrenta a la patronal mediática española, la <strong>Asociación de Medios de Información (AMI)</strong>, con <strong>Meta</strong>, la empresa del multimillonario <strong>Mark Zuckerberg</strong> que controla <strong>Facebook, Instagram y WhatsApp</strong>.</p><p>AMI representa a poderosos grupos de comunicación como <strong>Prisa </strong><em><strong>(El País)</strong></em><em>, </em><strong>Unidad Editorial </strong><em><strong>(El Mundo)</strong></em><em>, </em><strong>Vocento</strong><em><strong> (Abc)</strong></em><em>, </em><strong>Godó </strong><em><strong>(La Vanguardia)</strong></em><em>, </em><strong>Prensa Ibérica </strong><em><strong>(El Periódico)</strong></em><em> </em>y <strong>Henneo </strong><em><strong>(20 Minutos)</strong></em><em>, </em>entre otras muchas cabeceras de papel y digitales, pero tiene delante a <a href="https://www.infolibre.es/politica/mitad-espanoles-exige-ue-acciones-frenar-llamadas-big-tech-trump_1_2023964.html" target="_blank">una de las </a><a href="https://www.infolibre.es/politica/mitad-espanoles-exige-ue-acciones-frenar-llamadas-big-tech-trump_1_2023964.html" target="_blank"><strong>empresas más poderosas del mundo</strong></a><a href="https://www.infolibre.es/politica/mitad-espanoles-exige-ue-acciones-frenar-llamadas-big-tech-trump_1_2023964.html" target="_blank">.</a> La demanda, que se remonta dos años atrás, acusa a la matriz de Facebook e Instagram de <strong>competencia desleal</strong> y de <a href="https://www.infolibre.es/internacional/zuckerberg-amenaza-ue-cerrara-facebook-e-instagram-europa-si-no-transferir-datos-usuario-eeuu_1_1218726.html#:~:text=La%20empresa%20de%20Zuckerberg%2C%20Meta%2C%20confía%20en,de%20sus%20servicios%2C%20pues%20esta%20medida%20se." target="_blank">saltarse las </a><a href="https://www.infolibre.es/internacional/zuckerberg-amenaza-ue-cerrara-facebook-e-instagram-europa-si-no-transferir-datos-usuario-eeuu_1_1218726.html#:~:text=La%20empresa%20de%20Zuckerberg%2C%20Meta%2C%20confía%20en,de%20sus%20servicios%2C%20pues%20esta%20medida%20se." target="_blank"><strong>normas europeas de protección de datos</strong></a><a href="https://www.infolibre.es/internacional/zuckerberg-amenaza-ue-cerrara-facebook-e-instagram-europa-si-no-transferir-datos-usuario-eeuu_1_1218726.html#:~:text=La%20empresa%20de%20Zuckerberg%2C%20Meta%2C%20confía%20en,de%20sus%20servicios%2C%20pues%20esta%20medida%20se." target="_blank">.</a></p><p>Según los diarios españoles, entre 2018 y 2023 Meta habría <strong>recopilado y explotado masivamente datos de navegación de millones de usuarios</strong> para vender <strong>publicidad personalizada</strong>, sin pedir un consentimiento válido (tal y como exige la legislación europea de protección de datos desde 2018). Eso, aseguran, le dio ventaja en el <strong>mercado publicitario</strong>, porque al tener más datos y poder segmentar mejor los anuncios, pudo quedarse con gran parte de la <strong>tarta publicitaria digital</strong>, dejando en desventaja a los <strong>periódicos españoles</strong>, muy dependientes de esos ingresos.</p><p><strong>AMI reclama 550 millones de euros de indemnización</strong> porque considera que esos ingresos de Meta fueron ilegítimos y que deberían haber ido, al menos en parte, a los medios. Una suma que, argumenta, será mayor si se demuestra que Meta jugó en el <strong>mercado de la publicidad digital</strong> usando <strong>datos personales</strong> sin cumplir las normas y dejando a los medios en clara desventaja económica también entre 2023 y el momento presente.</p><p>La vista se ha prolongado durante dos días. A su término, la directora de la <strong>Asociación de Medios de Información (AMI)</strong>, <strong>Irene Lanzaco</strong>, aseguró tener “una sensación muy positiva” porque considera que ha quedado “plenamente acreditado” que la empresa de Zuckerberg vulneró la <strong>protección de datos</strong> para realizar <strong>publicidad segmentada</strong>.</p><p>Lanzaco reprochó a Meta que haya declarado desconocer el número de cuentas que tiene en España y los <strong>ingresos publicitarios</strong> que obtiene en nuestro país. Está sustentando su defensa, declaró, sobre la base de que realizaron <strong>inversiones en tecnología</strong> para obtener resultados, “pero omiten decir que esas inversiones han sido posibles y son debidas a la necesidad de <strong>explotar los datos personales</strong>. No es posible desligar una cosa de la otra”.</p><p>La pelea es por un trozo significativo de la <strong>publicidad digital en España</strong>, que la prensa ha ido perdiendo progresivamente en las últimas décadas, pero Lanzaco, que representa a la patronal de diarios, ha tratado de situarla en otros términos: “Lo importante”, subrayó, “no es la cuantía económica, sino la <strong>defensa del trabajo periodístico</strong> y de los <strong>derechos fundamentales</strong>, que son un <strong>pilar de la democracia</strong>”.</p><p>La demanda se apoya en que, desde 2018, l<a href="https://www.infolibre.es/union-europea/bruselas-dispara-apple-facebook-primeras-multas-nuevas-normas-internet_1_1983143.html" target="_blank">a </a><a href="https://www.infolibre.es/union-europea/bruselas-dispara-apple-facebook-primeras-multas-nuevas-normas-internet_1_1983143.html" target="_blank"><strong>legislación comunitaria</strong></a><a href="https://www.infolibre.es/union-europea/bruselas-dispara-apple-facebook-primeras-multas-nuevas-normas-internet_1_1983143.html" target="_blank"> exige a las empresas disponer de “una base legítima” que les habilite para el </a><a href="https://www.infolibre.es/union-europea/bruselas-dispara-apple-facebook-primeras-multas-nuevas-normas-internet_1_1983143.html" target="_blank"><strong>perfilado publicitario</strong></a> (adaptar los anuncios a los gustos, intereses, hábitos o comportamientos de cada usuario a partir de sus <strong>datos personales</strong>).</p><p>En la primera jornada del juicio declararon tres responsables de <strong>Facebook</strong>. <strong>David Sáez de la Torre</strong>, director de Industria de España y Portugal de Facebook desde 2018, declaró que un mayor volumen de datos no significa mayor éxito en publicidad porque su éxito depende de los <strong>algoritmos</strong> y los <strong>instrumentos</strong> con los que se cuente para interpretarlos.</p><p>“No es el único factor a tener en cuenta”, remarcó. Para la publicidad personalizada se toman en consideración otros aspectos derivados de la experiencia que tiene el usuario dentro de la plataforma y de la observación de su navegación, no solo los datos que facilita.</p><p>El catedrático de Derecho Procesal <strong>Nicolás González Cuéllar</strong>, que representa a la patronal de los diarios españoles, preguntó también a <strong>Beltrán Seoane</strong>, director de agencias en Facebook para España y Portugal. <strong>Seoane corroboró la importancia de los datos</strong>, porque si no dispusieran de ninguno “sería como volver a la <strong>publicidad de hace 25 años</strong>”, pero sostuvo que lo que se persigue con ellos son las <strong>audiencias</strong> y el <strong>retorno</strong> para un <strong>mercado publicitario digital</strong> que crece cada año por la <strong>publicidad </strong><em><strong>online</strong></em><em>,</em> una mayor población, competencia y anunciantes.</p><p>Ninguno de los testigos confirmó conocer los procedimientos que se están desarrollando contra Meta por incumplir la normativa. Tampoco <strong>Cecilia Álvarez</strong>, directora de <strong>Política de Privacidad en Europa</strong> de Facebook desde 2019. Álvarez reveló que para la <strong>publicidad personalizada</strong> se recaban <strong>datos de primera parte</strong> y <strong>datos de terceros</strong>, es decir, los personales con los que los usuarios se registran para darse de alta en la plataforma (el nombre, correo electrónico y, si lo desean, foto de perfil), además de otros que les proporcionan empresas a las que los usuarios dieron su consentimiento para su cesión. Y aseguró que desde 2018, <a href="https://www.infolibre.es/politica/bruselas-poner-limites-desbocado-gigantes-digitales_1_1158472.html" target="_blank">el año en que entró en vigor la </a><a href="https://www.infolibre.es/politica/bruselas-poner-limites-desbocado-gigantes-digitales_1_1158472.html" target="_blank"><strong>regulación europea</strong></a><a href="https://www.infolibre.es/politica/bruselas-poner-limites-desbocado-gigantes-digitales_1_1158472.html" target="_blank">, </a>siempre requieren el <strong>consentimiento expreso del usuario</strong> para que terceros cedan sus datos.</p><p>La demanda de <strong>AMI</strong>, que posteriormente fue secundada por <strong>televisiones y radios comerciales españolas</strong>, sigue en el tiempo a otra que se formalizó en <strong>Francia</strong> la pasada primavera. A través de ella, más de <strong>200 medios de comunicación franceses</strong> públicos y privados denunciaron a <strong>Meta</strong> ante el <strong>Tribunal de Actividades Económicas de París</strong> por lo que consideran que son “prácticas ilegales” que, como argumenta AMI, les habrían privado de buena parte de la <strong>publicidad en línea</strong>.</p><p>La base argumental en Francia es idéntica a la que se ha usado en España: la supuesta <strong>recopilación masiva e ilícita de datos personales</strong> para disponer así de informaciones que permiten a la compañía elaborar <strong>anuncios selectivos</strong> en función de las <strong>preferencias</strong> y los <strong>gustos conocidos</strong> de los usuarios. Una “violación flagrante”, según sus promotores, del <strong>Reglamento General de Protección de Datos (RGPD)</strong> de la <strong>Unión Europea</strong>, ya que no informaron a esas personas de que estaban recopilando esos datos ni solicitaron expresamente su consentimiento.</p><p>Según los cálculos de la demanda francesa, mediante el uso de estos datos <strong>Google y Meta</strong> acaparan el <strong>75% del mercado publicitario</strong> y el <strong>90% de su crecimiento</strong>.</p><p><a href="https://www.infolibre.es/internacional/alto-precio-pagando-oligarcas-tecnologicos-foto-trump_1_1960861.html" target="_blank"><strong>Mark Zuckerberg</strong></a><a href="https://www.infolibre.es/internacional/alto-precio-pagando-oligarcas-tecnologicos-foto-trump_1_1960861.html" target="_blank">, un </a><a href="https://www.infolibre.es/internacional/alto-precio-pagando-oligarcas-tecnologicos-foto-trump_1_1960861.html" target="_blank"><strong>aliado tecnológico de Donald Trump</strong></a><a href="https://www.infolibre.es/internacional/alto-precio-pagando-oligarcas-tecnologicos-foto-trump_1_1960861.html" target="_blank">,</a> que en varias ocasiones ha amenazado a la <strong>Unión Europea</strong> con sanciones si no deroga la <strong>legislación que afecta a las tecnológicas norteamericanas</strong>, enfrenta también problemas en otros países de Europa. Este jueves se conoció que la <strong>Justicia neerlandesa</strong> ha ordenado a Meta modificar en un plazo de dos semanas sus plataformas sociales <strong>Facebook e Instagram en Países Bajos</strong> para garantizar a los usuarios una opción de <strong>cronología sin algoritmos</strong>, de <strong>acceso directo</strong> y que pueda fijarse como <strong>predeterminada</strong>, frente a la práctica actual de <strong>elaboración de perfiles</strong>.</p><p>El tribunal concluyó que la configuración actual de ambas aplicaciones vulnera aspectos de la <strong>Ley Europea de Servicios Digitales (DSA)</strong>, al forzar de manera encubierta a los usuarios a volver a un <strong>sistema de recomendaciones basado en perfiles</strong>, un restablecimiento automático que el juez consideró un “<strong>patrón oscuro</strong>” prohibido que limita la <strong>libertad de información y expresión</strong>.</p><p>“Actualmente, Facebook e Instagram no permiten suficientemente a los usuarios en Países Bajos tomar decisiones libres y autónomas sobre el uso de sistemas de recomendaciones basados en perfiles”, señaló el juez.</p><p>La decisión responde a una demanda de la organización de derechos civiles <strong>Bits of Freedom</strong>, que denunció que el funcionamiento de <strong>Facebook e Instagram</strong> podía influir en los <strong>comicios generales en Países Bajos</strong> a finales de este mes, al condicionar la <strong>visibilidad de contenidos mediante algoritmos</strong>, informa Efe.</p><p>“Teniendo en cuenta las elecciones del 29 de octubre de 2025, Meta Irlanda deberá adaptar sus plataformas en el plazo de dos semanas”, urgió el magistrado.</p><p>El juez ordenó que la opción de un <strong>feed cronológico o sin perfilado</strong> se mantenga incluso cuando el usuario cierre la aplicación o cambie de sección dentro de la plataforma.</p><p>Esto implica que los usuarios deben poder elegir un feed que no se elabore en función de sus supuestos intereses, una opción que existe actualmente, pero está <strong>oculta</strong> y no puede fijarse como estándar.</p><p><strong>Meta deberá implementar los cambios en Países Bajos en dos semanas o pagar una multa coercitiva de 100.000 euros por día, hasta un máximo de cinco millones.</strong></p>]]></description>
      <guid isPermaLink="false"><![CDATA[08a420fc-5929-4587-955b-706244bd5092]]></guid>
      <pubDate><![CDATA[Fri, 03 Oct 2025 04:01:07 +0000]]></pubDate>
      <author><![CDATA[Fernando Varela]]></author>
      <enclosure url="https://static.infolibre.es/clip/95483ce0-c71b-4d7b-b399-eb068acf917e_16-9-aspect-ratio_default_0.jpg" length="838821" type="image/jpeg"/>
      <media:content url="https://static.infolibre.es/clip/95483ce0-c71b-4d7b-b399-eb068acf917e_16-9-aspect-ratio_default_0.jpg" type="image/jpeg" fileSize="838821" width="1200" height="675"/>
      <media:title><![CDATA[Un juez decidirá si Facebook e Instagram privaron de publicidad a los medios usando datos ilegales]]></media:title>
      <media:thumbnail url="https://static.infolibre.es/clip/95483ce0-c71b-4d7b-b399-eb068acf917e_16-9-aspect-ratio_default_0.jpg" width="1200" height="675"/>
      <media:keywords><![CDATA[Meta,Instagram,Facebook,WhatsApp,Ley protección datos,Medios comunicación,Justicia,Publicidad]]></media:keywords>
    </item>
    <item>
      <title><![CDATA[Meta utiliza imágenes de menores para publicitar su red social Threads]]></title>
      <link><![CDATA[https://www.infolibre.es/internacional/meta-utiliza-fotos-chicas-escolares-publicitar-red-social-threads_1_2066310.html]]></link>
      <description><![CDATA[<p><img src="https://static.infolibre.es/clip/1c7a08c4-e4cb-43ba-b68c-04ea11505a45_16-9-aspect-ratio_default_0.jpg" width="1200" height="675" alt="Meta utiliza imágenes de menores para publicitar su red social Threads"></p><p>Meta utilizado <strong>fotos</strong> de “vuelta al colegio” de <strong>niñas en edad escolares </strong>para anunciar una de sus plataformas a un<strong> hombre de 37 años</strong>, una acción que los padres de la menor describieron como “indignante” y “perturbadora”, informa <em>The Guardian</em>. </p><p>El hombre notó que publicaciones que lo animaban a “unirse a <a href="https://www.infolibre.es/medios/threads-aplicacion-zuckerberg-competir-twitter_1_1543368.html"  >Threads</a>”, la red de Mark Zuckerberg rival de X de Elon Musk, aparecían en su feed de Instagram con publicaciones insertadas de <strong>niñas uniformadas</strong> de hasta 13 años, con sus rostros visibles y, en la mayoría de los casos, sus <strong>nombres</strong>.</p><p>Las imágenes de las menores fueron usadas por Meta después de que sus <strong>padres las publicaran en Instagram</strong> para marcar el regreso a clases. Los padres <strong>desconocían</strong> que la configuración de Meta permitía esto. Una madre dijo que tenía su cuenta en modo <strong>privado</strong>, pero que las publicaciones se<strong> compartían automáticamente</strong> en Threads, donde quedaban visibles. Otra explicó que había subido la foto en una cuenta pública de Instagram. Las publicaciones de sus hijas fueron destacadas al extraño como <strong>“threads sugeridos”.</strong></p><p>El destinatario contó a <em>The Guardian</em> que las publicaciones le parecieron “deliberadamente <strong>provocativas</strong> y, en última instancia, una <strong>explotación de los niños y las familias</strong> involucradas”.</p><p>El padre de una niña de 13 años que apareció en una de las publicaciones dijo que esta práctica era “absolutamente <strong>indignante</strong>”. Las imágenes eran todas de chicas escolares con faldas cortas, con las piernas descubiertas o usando medias.</p><p>“Cuando descubrí que una imagen de ella había sido explotada de lo que me pareció una manera <strong>sexualizada</strong> por una empresa tan grande para promocionar su producto, me sentí bastante asqueado”, afirmó.</p><p>Meta se defendió diciendo que las imágenes no infringían sus políticas. La empresa explicó que recomienda visitar Threads mostrando fotos compartidas públicamente que cumplan sus normas comunitarias y sus directrices de recomendación. Sus sistemas no recomiendan publicaciones de Threads compartidas por adolescentes, pero en este caso se trataba de <strong>cuentas de adultos configuradas para ser visibles públicamente.</strong></p><p>El hombre que recibió las publicaciones señaló que, como solo le llegaron publicaciones promocionales de chicas escolares —sin <strong>ningún chico en uniforme,</strong> por ejemplo—, parecía haber<strong> “un aspecto de sexualización”.</strong></p><p>La madre de una joven de 15 años cuya foto fue usada en una publicación promocional con un gran botón de “Get Threads” comentó: “Para mí era una <strong>foto de mi hija yendo al colegio</strong>. No tenía idea de que Instagram la había tomado y la estaba usando como promoción. Es absolutamente repugnante. Ella es menor de edad”.</p><p>Añadió que jamás habría dado su consentimiento y que “<strong>ni por todo el dinero del mundo permitiría</strong> que usaran a una niña en uniforme escolar para atraer gente a su plataforma”.</p><p>Con 267 seguidores, su cuenta de Instagram normalmente tenía un<strong> alcance modesto</strong>, pero la publicación de su hija atrajo cerca de 7.000 visualizaciones, de las cuales un 90% de personas que no la seguían, la mitad tenía más de 44 años y el 90% eran hombres.</p><p>Otra madre, cuya publicación de su hija de 13 años fue utilizada en un anuncio promocional, declaró: “<strong>Meta hizo todo esto a propósito</strong>, sin informarnos, porque quieren generar contenido. Es despreciable. ¿Y quién es responsable de crear ese anuncio de Threads usando <a href="https://www.infolibre.es/medios/sobreexponemos-menores-redes-pedroche-maria-pombo-peligros-mostrar-hijos-ganar-likes_1_1572324.html"  >fotos de niños para promocionar la plataforma </a>entre hombres mayores?”.</p><p>Meta explicó que llama a estas publicaciones<strong> “herramientas de recomendación”</strong> y que las publicaciones públicas pueden usarse con ese fin.</p><p>El usuario de Instagram de 37 años, residente en Londres y que pidió permanecer en el anonimato, concluyó: “Durante varios días recibí <strong>repetidamente anuncios</strong> de Meta para Threads que incluían exclusivamente i<strong>mágenes de padres de sus hijas</strong> en uniforme escolar, algunas con sus nombres visibles. Como padre, me parece profundamente inapropiado que Meta reutilice estas publicaciones en una promoción dirigida a adultos”.</p><p>Dijo que no había publicado <strong>ni dado “me gusta” </strong>a imágenes similares antes de que le enviaran las fotos de las escolares.</p><p>“Para mí, mostrar este tipo de contenido como tendencia o popular es <strong>deliberadamente provocativo</strong> y, en última instancia, una <strong>explotación de los niños y las familias involucradas</strong>, poniendo en riesgo su seguridad en línea”.</p>]]></description>
      <guid isPermaLink="false"><![CDATA[6f6c7f9b-e7a2-4726-b9c2-0df5745743bf]]></guid>
      <pubDate><![CDATA[Sat, 20 Sep 2025 10:45:00 +0000]]></pubDate>
      <author><![CDATA[infoLibre]]></author>
      <enclosure url="https://static.infolibre.es/clip/1c7a08c4-e4cb-43ba-b68c-04ea11505a45_16-9-aspect-ratio_default_0.jpg" length="810136" type="image/jpeg"/>
      <media:content url="https://static.infolibre.es/clip/1c7a08c4-e4cb-43ba-b68c-04ea11505a45_16-9-aspect-ratio_default_0.jpg" type="image/jpeg" fileSize="810136" width="1200" height="675"/>
      <media:title><![CDATA[Meta utiliza imágenes de menores para publicitar su red social Threads]]></media:title>
      <media:thumbnail url="https://static.infolibre.es/clip/1c7a08c4-e4cb-43ba-b68c-04ea11505a45_16-9-aspect-ratio_default_0.jpg" width="1200" height="675"/>
      <media:keywords><![CDATA[Menores,violencia de género,Violencia machista,Redes sociales,Meta,Instagram,Mark Zuckerberg,Elon Musk,Ley protección del menor,Pederastia]]></media:keywords>
    </item>
    <item>
      <title><![CDATA[¿Estamos en una burbuja de IA? Cuando el afán especulativo choca con la realidad de la innovación]]></title>
      <link><![CDATA[https://www.infolibre.es/medios/burbuja-ia-afan-especulativo-choca-realidad-innovacion_1_2055755.html]]></link>
      <description><![CDATA[<p><img src="https://static.infolibre.es/clip/03d728a1-bb48-46e1-a230-91966f2155d8_16-9-aspect-ratio_default_0.jpg" width="1200" height="675" alt="¿Estamos en una burbuja de IA? Cuando el afán especulativo choca con la realidad de la innovación"></p><p>La <a href="https://www.infolibre.es/temas/inteligencia-artificial/"  >inteligencia artificial</a> es desde hace tres años la tecnología fetiche y el epicentro de cualquier conversación sobre el futuro. Lo que antes parecía un concepto propio de una película de ciencia ficción o de un capítulo de<em> Black Mirror</em>, <a href="https://www.infolibre.es/medios/meta-google-x-despliegan-control-ia-convertirla-amiga-buscador-espia_1_1983682.html"  >ahora forma parte ya de nuestras vidas</a>. Y, aunque no nos guste reconocerlo, cualquier éxito que afecte a nuestro día a día tiene un impacto en la economía. Y en el caso de la IA, no iba a ser menos con <strong>valoraciones disparadas en las bolsas</strong>, promesas sobre una <strong>alta rentabilidad financiera</strong> y un <strong>discurso que roza la euforia</strong>. Sin embargo, no es oro todo lo que reluce y las dudas llevan encima de la mesa de los mercados bursátiles desde principios de año.</p><p>La pregunta, incómoda pero inevitable, es si estamos <strong>repitiendo la historia de otras burbujas tecnológicas. </strong>Las señales de alarma son visibles, más desde este mismo mes de agosto donde se ha producido<strong> la tormenta perfecta</strong>: caídas en bolsa de los emblemas del sector acompañados de declaraciones grandilocuentes de algunas de las figuras claves de la industria junto a oportunos estudios con conclusiones llamativas. </p><p>"Lo que estamos viendo <strong>no es una burbuja de la inteligencia artificial en sí, sino más bien una de expectativas</strong>", explica <strong>Cristian Castillo</strong>, profesor de la Universitat Oberta de Catalunya (UOC) en logística y producción. Para este experto, el progreso técnico es "innegable", pero "la velocidad de esos avances no ha estado a la altura del entusiasmo que se ha acumulado" alrededor de esta tecnología. </p><p>"Hay una cantidad de dinero descomunal entrando en el sector. Todo tiene que ver con la liquidez que se está inyectando a esta tecnología porque ahora es la mejor apuesta en inversión de capital", admite <strong>Jesús Cristóbal</strong>, profesor de OBS Business School y director de Sand. Este experto señala que esto supone un "peligro tremendo": "<strong>Si se cortara el flujo habría una caída en cadena</strong> porque hay muy pocas empresas recibiendo grandes cantidades de dinero". </p><p>¿Se han inflado las expectativas? "Ya ha demostrado su valor increíble. Lo que pasa con<strong> toda la tecnología nueva y disruptiva es que pasa por este entusiasmo que no se mide muy bien</strong>", reconoce <strong>Miguel Ángel Román</strong>, doctor en Inteligencia Artificial, ingeniero de Telecomunicaciones e Informática y cofundador del <a href="https://iia.es/" target="_blank">Instituto de Inteligencia Artificial (IIA)</a>. </p><p>Para Castillo, con la IA estamos entrando ya en <strong>el "valle de la desilusión"</strong>, una fase en la que "el entusiasmo inicial se convierte en escepticismo". "La tecnología es asombrosa y ha logrado avances que hace apenas unos años parecían inalcanzables, pero todavía está lejos de cumplir con la imagen que se ha proyectado de ella. Se ha instalado la idea de que estamos a un paso de alcanzar sistemas comparables a la inteligencia humana, cuando en realidad los modelos actuales siguen mostrando limitaciones claras", sostiene. </p><p>Y estas expectativas han inundado los mercados. Una de las más beneficiadas ha sido <strong>Nvidia</strong>, que ha experimentado un crecimiento significativo, <a href="https://www.infolibre.es/economia/nvidia-gana-581-gracias-boom-inteligencia-artificial_1_1722313.html" target="_blank">superando el 500% en los últimos cinco años</a>, impulsado por el auge del mercado de la inteligencia artificial. Aunque su nombre no acapara titulares por sus avances a nivel tecnológico, como Open AI con ChatGPT, se trata de la empresa líder en la fabricación de chips, clave para el crecimiento del sector. Por ello, cualquier perturbación en su valoración bursátil hace saltar las alarmas. </p><p>Y esto es lo que ha pasado durante todo el pasado mes de agosto. Sobre todo desde el día 18. Mientras <a href="https://g.co/finance/NVDA:NASDAQ?window=5Y" target="_blank">Nvidia</a> se dejaba <strong>un 3%</strong>, el resto de acciones de las tecnológicas estadounidenses también registraban números rojos, sobre todo <a href="https://g.co/finance/PLTR:NASDAQ?window=5Y" target="_blank">Palantir</a>, empresa de minería de datos y software espía, con contratos del gobierno estadounidense valorados en miles de millones de dólares, que se desplomó <strong>casi un 10%.</strong> </p><p>Y <a href="https://www.theguardian.com/technology/2025/aug/27/nvidia-second-quarter-earnings" target="_blank">la presentación de sus resultados del segundo trimestre el pasado día 27 tampoco ayudó</a>: a pesar de superar las expectativas de Wall Street al establecer un nuevo récord de ventas, las acciones de la compañía cayeron <strong>un 2,3%</strong>. "Este comportamiento bursátil es ilustrativo. Son reacciones que muestran hasta qué punto las valoraciones estaban apoyadas más en expectativas de futuro que en beneficios tangibles", argumenta Castillo. </p><p>Incluso el propio<strong> Sam Altman, CEO de OpenAI</strong>, reconoció a mediados de agosto a un grupo de periodistas que los inversores están "demasiado entusiasmados con la IA". "Cuando se producen burbujas, <strong>las personas inteligentes se entusiasman en exceso</strong> con [lo que en realidad es tan solo] una pizca de la verdad", aseguró, según recoge <a href="https://www.theverge.com/command-line-newsletter/759897/sam-altman-chatgpt-openai-social-media-google-chrome-interview" target="_blank">The Verge</a>. "No creo que estuviera hablando de una burbuja desde el punto de vista tecnológico, sino por las inversiones y los sueldos que se están pagando", señala Román. </p><p>Y es que Altman pareció comparar esta dinámica actual con<strong> la burbuja de las puntocom</strong>. "Es la situación más parecida a la actual y podríamos estar en un estado similar", apunta Jesús Cristobal. El desplome bursátil centrado en las empresas de internet se produjo entre marzo de 2000 y octubre de 2002 después de que durante los años 90 se generase una fiebre por las empresas tecnológicas ante el desarrollo de internet. En concreto, <strong>el Nasdaq perdió casi el 80% de su valor</strong> después de que muchas de estas empresas no generaran ingresos ni beneficios. "Además ahora el sector está concentrado en menos jugadores y todos los indicadores están disparados y en récord", reconoce este profesor. </p><p>Los comentarios de Altman, una de las voces más importantes dentro de la industria actual, se suman a la <a href="https://fortune.com/2025/08/19/wall-street-ai-bubble-sam-altman/" target="_blank">creciente preocupación de expertos y analistas</a> de que la inversión en inteligencia artificial avanza de forma demasiada acelerada. A principios de este año, <strong>Ray Dalio de Bridgewater Associates</strong> advirtió en <a href="https://www.ft.com/content/eef8dbc9-bd04-4502-bdc2-1092aa4251b2" target="_blank"><em>The Financial Times</em></a> de que el ciclo actual en Wall Street parecía ser "muy similar" al observado antes de la crisis de las puntocom. Advertencias similares a las que también han hecho más recientemente personajes como <strong>el cofundador de Alibaba, Joe Tsai</strong>, o <strong>el economista jefe de Apollo Global Management, Torsten Slok</strong>.</p><p>Una inversión acelerada que también <strong>está teniendo repercusión en la fuga y caza de talento</strong>. Las grandes tecnológicas han comenzado a inflar los sueldos de algunos de sus trabajadores. En concreto, Mark Zuckerberg fichó durante la primavera para desarrollar en Meta <a href="https://www.infolibre.es/medios/inteligencia-artificial-general_1_1698223.html"  >su superinteligencia</a> a más de 50 investigadores de compañías como<strong> OpenAI, Google DeepMind, Anthropic, xAI o Apple </strong>con contratos que, <a href="https://www.wired.com/story/mark-zuckerberg-meta-offer-top-ai-talent-300-million/" target="_blank">según algunos medios como Wired</a>, sumaban 300 millones de dólares en cuatro años. </p><p>Las advertencias desde dentro de la propia industria parece que recibieron además el aval externo de <a href="https://mlq.ai/media/quarterly_decks/v0.1_State_of_AI_in_Business_2025_Report.pdf" target="_blank">un informe del Instituto Tecnológico de Massachusetts (MIT)</a> publicado este mismo mes de agosto que reveló que <strong>el 95% de las empresas que invierten en IA generativa aún no han visto ningún retorno financiero</strong>. "Hay que ir más allá del titular", advierte Román. </p><p>Y es que, aunque el mercado optó por interpretarlo como <strong>una crítica a la inteligencia artificial en su conjunto</strong>, lo cierto es que esta investigación del MIT apunta a que el principal problema no es la calidad de los modelos adoptados a nivel empresarial, si no la "brecha de aprendizaje" de los ejecutivos. Es decir, tal y como explica <a href="https://fortune.com/2025/08/21/an-mit-report-that-95-of-ai-pilots-fail-spooked-investors-but-the-reason-why-those-pilots-failed-is-what-should-make-the-c-suite-anxious/" target="_blank">Fortune</a>, la integración de esta tecnología es defectuosa porque no entendían cómo usar estas herramientas correctamente.</p><p>"La irrupción de modelos como ChatGPT generó una sensación de disrupción inmediata. De repente, todas las empresas querían incorporar inteligencia artificial a sus procesos. El problema es que esa adopción muchas veces se hizo sin conocer bien las limitaciones de la tecnología ni contar con una estrategia clara de integración", defiende Castillo que señala que la mayoría de proyectos se han orientado a áreas visibles, "como ventas y marketing", donde <strong>el impacto real es "limitado"</strong>, mientras que "los retornos más consistentes se obtienen en la automatización de procesos internos". </p><p>Así,<strong> </strong>con las expectativas infladísimas tanto en la bolsa como en la propia industria y con todo el mundo en el sector esperando a cualquier mínimo resquicio de señal preocupante para lanzar sus mensajes de alerta, la pregunta es evidente: ¿podría explotar esta burbuja? Para Jesús Cristobal,<strong> este escenario no cabe a corto plazo</strong>: "Hay <a href="https://www.infolibre.es/medios/ia-deepseek_1_1937818.html"  >una carrera armamentística entre EEUU y China por la inteligencia artificial</a>: están invirtiendo muchísimo y no se va a cortar el dinero. Tendría que venir algo muy grave y que no tenemos en el radar para que pasase en breve". </p><p>Y si explota esta burbuja, ¿qué va a pasar? "<strong>Va a afectar a la confianza del inversor y podría retrasar avances porque habrá más incertidumbre</strong>", reconoce Román. "Lo que se frenaría no sería el desarrollo tecnológico en sí, sino las expectativas sobredimensionadas que se han creado en torno a ella", completa Castillo. </p><p>Dentro de la propia industria, las tecnológicas que están desarrollando la inteligencia artificial serán las que se vean más afectadas. Para Miguel Ángel Román, las empresas que tienen la unión de una serie de <strong>cuatro elementos </strong>son las que tienen todas las cartas para "resistir" ante una posible explosión de la burbuja y un parón de la inversión. </p><p>El primero, son<strong> los datos</strong>. "Por ejemplo Google puede seguir aprovechando la inteligencia artificial porque tiene más datos que nadie y su dominio va a ser como con Internet, enorme", detalla Román. El segundo, e<strong>s la infraestructura, los famosos centros de datos</strong>. "Empresas como Amazon están pensando en hacerse con centrales nucleares para alimentarlos", explica este experto. El tercero es <strong>"la famosa GPU", es decir, la capacidad de cómputo</strong> y aquí la mejor "es el de Nvidia". Y, por último,<strong> el talento</strong>. De ahí, los sueldos desorbitados 	que está poniendo encima de la mesa Meta. </p><p>"¿Quién tiene estos cuatro elementos? <strong>El único es Google</strong>. Open AI está intentando obtener los elementos que le faltan, por ejemplo con su asociación con Microsoft. La dependencia con Nvidia la tienen todos, excepto Google, y por eso está creciendo tanto", sostiene Román. </p><p>"Y aunque alguna de las empresas actuales desapareciera, el conocimiento se esparcirá por otras empresas", añade Cristóbal que cree que <strong>la empresa más afectada podría ser Nvidia</strong>. "Tiene un riesgo de concentración de sus clientes y cuellos de botella en la fabricación de sus chips", asegura. </p><p>Más allá de la propia industria, la explosión de la burbuja también podría tener repercusiones, aunque más limitadas, en la adopción de inteligencia artificial en <a href="https://www.infolibre.es/medios/algoritmos-deben-transparentes-no-opacos-formula-coca-cola_1_1964714.html"  >sectores como salud, educación, transporte o servicios</a>. "Este tipo de grandes inversiones están en las empresas más grandes y fuertes, por lo que no se verán afectadas", completa Román que insiste en que<strong> esta tecnología "ha venido para quedarse"</strong>. </p><p>"En sectores donde ya se observan beneficios tangibles no desaparecerá, aunque el ritmo de inversión y adopción se ajuste a una realidad más prudente", apunta Castillo. Este experto apuesta porque en el <strong>campo de la sanidad</strong>, la adopción de los algoritmos que apoyan el diagnóstico por imagen, la monitorización de pacientes o la predicción de brotes, va a "seguir adelante", mientras que en otros, como en transporte y logística, los proyectos más ambiciosos, "como los vehículos completamente autónomos", podrían "ralentizarse". </p><p>Y, por último, también hay que tener en cuenta al <strong>usuario</strong>. Aunque parece que en este caso, a la hora de usar la propia tecnología, <strong>no tendrá impacto</strong>. "Pasará lo mismo que con la burbuja de Internet: afectó a inversores y a los creadores de startups, pero a los usuarios les afectará poco porque podrán seguir usando normalmente estas herramientas", apunta Román. </p><p>Para Cristian Castillo, <strong>el impacto en los usuarios sería sobre todo de "percepción".</strong> "Tras un entusiasmo inicial con herramientas como ChatGPT, ya se observa que solo una minoría paga por la versión premium. Un estallido de la burbuja consolidaría esta tendencia: los usuarios seguirán utilizándose como apoyo, pero con expectativas más realistas sobre lo que pueden y no pueden hacer", explica este experto. </p><p>Para Jesús Cristóbal, el usuario lo podría notar en que <strong>se podrían poner fin "a las cuentas gratuitas"</strong>, pero más allá de eso "no debería verse afectado porque el servicio ya se está prestando". </p>]]></description>
      <guid isPermaLink="false"><![CDATA[58c55840-b692-465a-ae63-40a70ee95e2f]]></guid>
      <pubDate><![CDATA[Mon, 08 Sep 2025 04:00:23 +0000]]></pubDate>
      <author><![CDATA[Alba Precedo]]></author>
      <enclosure url="https://static.infolibre.es/clip/03d728a1-bb48-46e1-a230-91966f2155d8_16-9-aspect-ratio_default_0.jpg" length="174091" type="image/jpeg"/>
      <media:content url="https://static.infolibre.es/clip/03d728a1-bb48-46e1-a230-91966f2155d8_16-9-aspect-ratio_default_0.jpg" type="image/jpeg" fileSize="174091" width="1200" height="675"/>
      <media:title><![CDATA[¿Estamos en una burbuja de IA? Cuando el afán especulativo choca con la realidad de la innovación]]></media:title>
      <media:thumbnail url="https://static.infolibre.es/clip/03d728a1-bb48-46e1-a230-91966f2155d8_16-9-aspect-ratio_default_0.jpg" width="1200" height="675"/>
      <media:keywords><![CDATA[Inteligencia artificial,Tecnología digital,ChatGPT,Google,Amazon,Mercados financieros,Meta]]></media:keywords>
    </item>
    <item>
      <title><![CDATA[A qué se obligan ChatGPT, Gemini y Claude al suscribir el código de buenas prácticas en IA de la UE]]></title>
      <link><![CDATA[https://www.infolibre.es/medios/obligan-chatgpt-gemini-claude-suscribir-codigo-buenas-practicas-ia-union-europea_1_2040505.html]]></link>
      <description><![CDATA[<p><img src="https://static.infolibre.es/clip/b12a9738-af0a-4811-9770-d3ccd56e1d0f_16-9-discover-aspect-ratio_default_0.jpg" width="1200" height="675" alt="A qué se obligan ChatGPT, Gemini y Claude al suscribir el código de buenas prácticas en IA de la Unión Europea"></p><p>La primera gran batalla entre los grandes oligarcas tecnológicos y la Unión Europea ya está aquí. <a href="https://www.infolibre.es/internacional/ue-da-paso-historico-aprobar-primera-ley-inteligencia-artificial-mundo_1_1661638.html" target="_blank">Este sábado entró en vigor parcialmente la ley europea de Inteligencia Artificial, </a>que <strong>protege a los ciudadanos de las zonas oscuras de esta tecnología</strong>, pero amenaza, al mismo tiempo, el poder ilimitado de los multimillonarios y grandes corporaciones que controlan los modelos de uso más frecuente.</p><p>Los más grandes ya han empezado a tomar posiciones, algunos dando a entender su disposición a cumplir la ley, a veces con algunas condiciones. Es el caso de OpenAI, Anthropic, Google, Mistral y Microsoft. Otras, en cambio,<strong> se niegan y desafían la autoridad de Bruselas. </strong><a href="https://www.infolibre.es/medios/meta-comienza-entrenar-ia-contenido-publico-residentes-adultos-ue_1_2002795.html" target="_blank">Meta, propiedad de Mark Zuckerberg, rechaza todo el documento.</a> <a href="https://www.infolibre.es/medios/ia-arma-ideologica-logro-musk-convertir-grok-chatbot-toxico-mercado_1_2000353.html" target="_blank">xAI, del empresario ultra Elon Musk, ha anunciado que solo firmará una parte, pero no todo el código.</a></p><p>Los plazos para cumplir las exigencias de la ley europea de Inteligencia Artificial aprobada en 2023 son muy amplios. Las empresas con modelos de IA de “propósito general” (como los asistentes conversacionales tipo ChatGPT, Claude o Gemini) <strong>no estarán obligadas a cumplir obligaciones de transparencia hasta agosto de 2027.</strong> No será hasta entonces cuando se haga realidad que, al usar uno de esos servicios, el modelo deba dejar claro que estás hablando con una IA, qué tipo de datos de entrenamiento se usaron, los posibles riesgos de sesgo o toxicidad y un resumen técnico del funcionamiento.</p><p>El objetivo de la ley es proteger derechos y evitar el engaño a los ciudadanos. De momento, muchas aplicaciones basadas en modelos de IA de uso general <strong>no explican cómo han sido entrenadas, qué tipo de datos usan ni informan del posible sesgo. </strong>Cuando estas normas de la ley estén en vigor, dentro de dos años, cualquier servicio disponible en la UE que utilice un modelo de propósito general deberá proporcionar un resumen técnico accesible, incluyendo una declaración que aclare si ha sido entrenado con datos protegidos por derechos de autor y permitir detectar sesgos discriminatorios o toxicidad.</p><p>Para adelantar plazos y facilitar la adopción de estos requisitos, <a href="https://digital-strategy.ec.europa.eu/es/policies/contents-code-gpai" target="_blank">la UE publicó el 19 de julio un Código de Buenas Prácticas de adopción voluntaria, </a>en torno al cual se están posicionando las grandes empresas. Firmarlo o no va a permitir al regulador europeo saber <strong>quiénes están dispuestos a cumplir y quiénes están predispuestos a desafiar la legislación</strong> de la UE.</p><p>Los que van a firmar, Google, OpenAI y Anthropic, por ejemplo, se comprometen a adoptar, en primer lugar, <strong>medidas de transparencia. </strong>Eso significa que publicarán resúmenes de los contenidos usados en el entrenamiento de sus modelos de IA (Gemini, ChatGPT y Claude) y que se comprometen a actualizar esta información de forma periódica, así como a mantener registros detallados sobre su despliegue y funcionalidad.</p><p>En segundo lugar, las empresas que acatan el Código prometen implementar políticas estrictas para <strong>no usar contenidos con copyright </strong>no autorizado, responder a cualquier solicitud de creadores de contenido para excluir sus obras del entrenamiento y cumplir con la normativa de propiedad intelectual europea.</p><p>Los propietarios de lo que la ley denomina “modelos de IA de alto riesgo” —que son aquellos que combinan gran capacidad computacional, se despliegan de forma generalizada en múltiples sectores y son susceptibles de amplificar riesgos sociales, como desinformación, sesgo, manipulación, automatización del trabajo o discriminación— deberán además tomar <strong>medidas especiales.</strong> Entre ellas, hacer evaluaciones sistemáticas de riesgos de seguridad o aprobar protocolos para la detección, mitigación y reporte de incidentes relacionados con mal uso.</p><p>Firmar el Código proporciona una presunción de cumplimiento de buena fe frente a la Autoridad de IA de la UE, lo que puede facilitar auditorías, inspecciones o negociaciones regulatorias en el futuro. Y a<strong>nticipa la decisión de cumplir la ley en estos apartados antes de agosto de 2027.</strong></p><p>¿Qué riesgos asumen Meta y xAI al no firmar, o hacerlo parcialmente? En primer lugar, se ponen en el foco y <strong>se arriesgan a un mayor escrutinio regulatorio.</strong> Aunque el Código es voluntario, la Comisión Europea ha avisado que las empresas que no lo firmen se enfrentarán a una supervisión más intensa.</p><p>En segundo lugar, se exponen a <strong>un riesgo reputacional.</strong> La negativa a suscribir un estándar voluntario alineado con valores de seguridad, transparencia y derechos genera una percepción pública y política adversa, especialmente en un continente como Europa, en el que la ley va a servir para elevar la confianza en unos modelos y desacreditar otros.</p><p>Los que cumplan el Código tienen, en principio, más facilidades para desplegar sus modelos de negocio en Europa. Así que <strong>Meta o xAI lo tendrán más difícil</strong> para lanzar nuevos modelos o acceder al mercado de la Unión Europea, frente a OpenAI, Google o Anthropic.</p><p>Lo que no habrá, de momento, son sanciones. Si en agosto de 2027 las empresas de Zuckerberg o Musk siguen sin cumplir las obligaciones que, de momento, son voluntarias —en materia de transparencia, seguridad y derechos de autor— se arriesgan a multas que <strong>pueden llegar al 7% de su facturación global.</strong></p><p>La empresa de Musk, xAI, ha tratado de salir del paso firmando solo el capítulo de seguridad y protección, pero no los relativos a transparencia ni derechos de autor. Esto implica que <strong>no obtendrá la presunción de conformidad completa</strong> y se expone a supervisión adicional en torno a los capítulos no firmados.</p><p>Meta, a través del director de Asuntos Globales de la compañía, Joel Kaplan, alega que <strong>Europa “va por el mal camino en materia de IA” </strong>y que el Código introduce “diversas incertidumbres legales para los desarrolladores de modelos”, así como “medidas que van mucho más allá del alcance de la Ley de IA”. La empresa de Zuckerberg está tratando de conseguir, junto a otras grandes compañías de diferentes campos, que la UE detenga la implementación de la ley de IA porque, asegura, frenará el desarrollo y la implementación de modelos de IA de vanguardia en Europa.</p><p>Los argumentos de xAI son parecidos. Asegura que el Código y la futura ley son <strong>profundamente perjudiciales para la innovación </strong>y considera que las disposiciones sobre derechos de autor son “claramente un exceso”.</p><p>Las voces autorizadas que apoyan un mayor control de los modelos de IA son, en cambio, cada vez más numerosas. Uno de ellos es el sociólogo, ensayista y asesor político de origen italo-suizo <strong>Giuliano da Empoli</strong>, para quien las empresas que los desarrollan constituyen un imperio difuso y sin contornos físicos que supone <strong>una amenaza para Europa, </strong>uno de los pocos contrapesos que se interponen en el mundo en su objetivo de consolidar su hegemonía global, descentralizada, basada en datos, algoritmos y redes.</p><p>Según Da Empoli, estas compañías buscan generar inestabilidad —con hitos como la presidencia de Donald Trump o, en su día, la salida de la UE del Reino Unido— <strong>utilizando redes sociales para manipular electorados y erosionar el consenso democrático</strong>. Es un poder esencialmente antidemocrático, porque concentra poder sin consulta ni rendición de cuentas, sustituyendo las decisiones colectivas por dictados algorítmicos y corporativos. Un poder que dispone además de enormes recursos financieros con los que sostener proyectos políticos (Musk ya está financiando a los ultraderechistas) y presionar a no pocas democracias europeas.</p>]]></description>
      <guid isPermaLink="false"><![CDATA[8f69e153-51ac-4c85-9f02-ea3d80ecb5d2]]></guid>
      <pubDate><![CDATA[Wed, 06 Aug 2025 04:00:28 +0000]]></pubDate>
      <author><![CDATA[Fernando Varela]]></author>
      <enclosure url="https://static.infolibre.es/clip/b12a9738-af0a-4811-9770-d3ccd56e1d0f_16-9-discover-aspect-ratio_default_0.jpg" length="1508012" type="image/jpeg"/>
      <media:content url="https://static.infolibre.es/clip/b12a9738-af0a-4811-9770-d3ccd56e1d0f_16-9-discover-aspect-ratio_default_0.jpg" type="image/jpeg" fileSize="1508012" width="1200" height="675"/>
      <media:title><![CDATA[A qué se obligan ChatGPT, Gemini y Claude al suscribir el código de buenas prácticas en IA de la UE]]></media:title>
      <media:thumbnail url="https://static.infolibre.es/clip/b12a9738-af0a-4811-9770-d3ccd56e1d0f_16-9-discover-aspect-ratio_default_0.jpg" width="1200" height="675"/>
      <media:keywords><![CDATA[Inteligencia artificial,Google,Meta,Mark Zuckerberg,Elon Musk,Unión Europea]]></media:keywords>
    </item>
    <item>
      <title><![CDATA[Google, Amazon, Open IA y 22 empresas más se adhieren al código de la UE sobre inteligencia artificial]]></title>
      <link><![CDATA[https://www.infolibre.es/politica/venticinco-empresas-adhieren-codigo-ue-inteligencia-artificial_1_2041513.html]]></link>
      <description><![CDATA[<p><img src="https://static.infolibre.es/clip/b12a9738-af0a-4811-9770-d3ccd56e1d0f_16-9-aspect-ratio_default_0.jpg" width="1200" height="675" alt="Google, Amazon, Open IA y 22 empresas más se adhieren al código de la UE sobre inteligencia artificial"></p><p>Un total de 25 empresas se adhirieron de manera voluntaria al <strong>código de buenas prácticas </strong>en la utilización de la <strong>inteligencia artificial</strong>, impulsado por la Comisión Europea, entre las que se encuentran, Google, Amazon, IBM, Microsoft y Open AI. Según informa EFE. </p><p>Entre las <strong>ausencias</strong>,<a href="https://www.infolibre.es/medios/meta-comienza-entrenar-ia-contenido-publico-residentes-adultos-ue_1_2002795.html"  > cabe destacar a Meta</a> (que ya había avisado de que no lo haría) y las empresas chinas como Alibaba, Baidu or Deepseek.</p><p>Elon Musk, dueño de la empresa xAI, decidió suscribir tan solo el capítulo de <strong>seguridad</strong> y no sumarse a los otros dos (centrados en los  derechos de autor y la transparencia).</p><p>La lista está formada por: Accexible, AI Alignment Solutions, Aleph <strong>Alpha</strong>, Almawave, <strong>Amazon</strong>, Anthropic, Bria AI, Cohere, Cyber Institute, Domyn ,Dweve, Euc Inovação Portugal, Fastweb, Google, Humane Technology, <strong>IBM</strong>, Lawise, <strong>Microsoft</strong> ,Mistral AI, Open Hippo, <strong>OpenAI</strong>, Pleias ,Re-AuditIA, ServiceNow, Virtuo Turing y Writer, aunque pueden unirse nuevas compañías.</p><p>Aquellas empresas que no hayan firmado este código voluntario, deberán demostrar por<strong> medios alternativos</strong> que están respetando la legislación europea.</p><p>Este sábado entraron en vigor las <a href="https://www.infolibre.es/politica/europa-lanza-desesperada-recuperar-terreno-pedido-carrera-global-inteligencia-artificial_1_1943540.html"  >normas de la Unión Europea para los modelos de inteligencia artificial</a> generativa, que obligan a los grandes sistemas como ChatGPT, de OpenAI, o Gemini, de Google, a respetar los contenidos protegidos por<strong> derechos de autor </strong>y a no proporcionar información discriminatoria ni contraria a los derechos fundamentales.</p><p>Las obligaciones forman parte de la <strong>ley de inteligencia artificial </strong>de la UE, que entró en vigor el año pasado y se irá desplegando de forma progresiva hasta 2027.</p><p>La ley, pionera en el mundo, permite o prohíbe el uso de la tecnología en función del riesgo que genere para las personas y hace dos semanas, la Comisión Europea publicó las <strong>directrices</strong> que deberán seguir los sistemas de inteligencia artificial generativa para cumplir con la norma.</p><p>Estados Unidos está presionando a la UE por las recientes leyes que han entrado en vigor para <strong>controlar el poder </strong>de las grandes tecnológicas, en su mayoría estadounidenses.</p><p>No solo la ley de inteligencia artificial, sino también la de <strong>mercados digitales -</strong>que establece las pautas de la libre competencia entre las tecnológicas- y la de servicios digitales -que les obliga a combatir el contenido ilegal-.</p><p>Bruselas pide a los sistemas de inteligencia artificial generativa, principalmente a los considerados de <strong>alto riesgo</strong> por su elevada capacidad de cálculo, que no los entrenen con datos protegidos por derechos de autor y a que evalúen el peligro que pueden provocar a los usuarios.</p><p>En concreto, que analicen hasta qué punto pueden fomentar <strong>violaciones</strong> de los derechos humanos y si existen otros peligros como la posibilidad de que las personas <strong>pierdan el control </strong>o haya accidentes químicos, biológicos y nucleares</p><p>Cualquier actualización de los modelos de inteligencia artificial que a partir de hoy se lance al mercado deberá<strong> respetar la normativa</strong> y en caso de incumplimiento, Bruselas podrá abrir expedientes a las empresas a partir del 2 de agosto de 2026.</p><p>Aunque la fecha se <strong>aplaza un año</strong> para todas las versiones de los chats que ya se estén comercializando y la vicepresidenta de la Comisión Europea para la Soberanía Tecnológica, Henna Virkkunen, ha abierto la puerta a retrasar la aplicación de la ley.</p><p>Cuarenta organizaciones europeas e internacionales de artistas, editores y poseedores de copyright han mostrado esta semana su <strong>"insatisfacción" </strong>con el código de conducta porque lo consideran "una <strong>oportunidad perdida </strong>para brindar una protección significativa de los derechos de propiedad intelectual". </p>]]></description>
      <guid isPermaLink="false"><![CDATA[e88311c3-7d51-4916-b802-4944871428ff]]></guid>
      <pubDate><![CDATA[Sat, 02 Aug 2025 11:57:39 +0000]]></pubDate>
      <author><![CDATA[infoLibre]]></author>
      <enclosure url="https://static.infolibre.es/clip/b12a9738-af0a-4811-9770-d3ccd56e1d0f_16-9-aspect-ratio_default_0.jpg" length="1508012" type="image/jpeg"/>
      <media:content url="https://static.infolibre.es/clip/b12a9738-af0a-4811-9770-d3ccd56e1d0f_16-9-aspect-ratio_default_0.jpg" type="image/jpeg" fileSize="1508012" width="1200" height="675"/>
      <media:title><![CDATA[Google, Amazon, Open IA y 22 empresas más se adhieren al código de la UE sobre inteligencia artificial]]></media:title>
      <media:thumbnail url="https://static.infolibre.es/clip/b12a9738-af0a-4811-9770-d3ccd56e1d0f_16-9-aspect-ratio_default_0.jpg" width="1200" height="675"/>
      <media:keywords><![CDATA[Unión Europea,Inteligencia artificial,Meta,Política,ChatGPT]]></media:keywords>
    </item>
    <item>
      <title><![CDATA[X no logra borrar a Twitter dos años después o lo que podría aprender Musk de la marcha atrás de HBO Max]]></title>
      <link><![CDATA[https://www.infolibre.es/medios/x-no-logra-borrar-twitter-anos-despues-aprender-musk-marcha-hbo-max_1_2036884.html]]></link>
      <description><![CDATA[<p><img src="https://static.infolibre.es/clip/b2b2c756-c8dd-4f87-8e76-7e0e61799102_16-9-aspect-ratio_default_0.jpg" width="1200" height="675" alt="X no logra borrar a Twitter dos años después o lo que podría aprender Musk de la marcha atrás de HBO Max"></p><p>Dos años después, <a href="https://www.infolibre.es/temas/twitter/" target="_blank">Twitter</a> sigue vivo… aunque <a href="https://www.infolibre.es/temas/elon-musk/" target="_blank">Elon Musk</a> insista en llamarlo X. Esta semana se celebra el <strong>segundo aniversario del momento en el que el hombre más rico del mundo decidió cambiar de un plumazo el nombre </strong>que había hecho famosa a la red social, generando incluso su propio lenguaje. De la noche a la mañana y sin prácticamente consultar con nadie, como la mayoría de las cosas que hace este multimillonario, el logo del pájaro azul que llevaba acompañando a la plataforma desde su nacimiento en 2006 fue sustituido por <strong>el negro de una sola letra, X</strong>, que lo obsesiona desde el inicio de su carrera e incluso figura en el nombre de algunos de sus hijos. </p><p>Así, en pleno verano de 2023, el <strong>23 de julio</strong>, Musk <a href="https://x.com/elonmusk/status/1683171310388535296" target="_blank">anunció en su propio perfil</a> que la plataforma pasaría a llamarse X y que, si encontraba un nuevo logo, el cambio se produciría al día siguiente. Pocas horas más tarde, tuiteó un vídeo del pájaro azul convirtiéndose en X.</p><p>La improvisación fue tan evidente que no fue hasta <strong>el día 24 </strong>cuando el dominio <a href="http://x.com" target="_blank">x.com</a> comenzó a redirigir a Twitter, el logotipo se transformó en la versión de ordenador y las cuentas principales de la compañía comenzaron a cambiar a la nueva nomenclatura, teniendo incluso que comprar a un usuario la cuenta @x. El <strong>27 de julio</strong>, Google Play actualizó la aplicación para los dispositivos Android. Y el <strong>31 de julio</strong> se efectuó el cambio en la App Store después de que Apple le concediera un permiso y fuera <a href="https://www.theverge.com/2023/7/31/23813883/twitter-x-ios-app-store-iphone-apple-elon-musk" target="_blank">la excepción a su norma</a> que prohíbe nombres de un solo carácter. </p><p>Posteriormente, se fueron suprimiendo más elementos de la marca: los tuits se renombraron como post o publicaciones y en<strong> mayo de 2024</strong>, casi un año después, el sitio web finalmente cambió el dominio de <a href="http://twitter.com" target="_blank">twitter.com</a> a <a href="http://x.com" target="_blank">x.com</a>. A pesar de todo, <strong>hoy seguimos hablando de Twitter y continuamos tuiteando, no "posteando en X". </strong></p><p>El cambio no solo no consolidó una nueva identidad, sino que <strong>diluyó una de las marcas más potentes de la era digital </strong>que ahora estaría a punto de cumplir veinte años en una aplicación que desde que el magnate se autonombró como tuitero en jefe se ha intentado transformar en banco, <em>app </em>de mensajería, plataforma de vídeo o en <em>chatbot </em>de inteligencia artificial. "<strong>Musk mató a Twitter</strong>, tanto figuradamente al cambiar su dirección, como literalmente al cambiar el nombre de la compañía", aseguró en <a href="https://www.infolibre.es/medios/twitter-elon-musk-jack-dorsey-libro-kurt-wagner_1_1829567.html" target="_blank">una entrevista con infoLibre</a> el periodista Kurt Wagner, autor del libro <em>Twitter. El pájaro de la discordia</em>. </p><p>"La nueva denominación <strong>es el menor de los cambios que ha sufrido la red social</strong>", explica Laura Pérez Altable, doctora en comunicación e investigadora de la Universitat Pompeu Fabra, que señala que fue "algo simbólico". "El nombre <strong>no acaba de despegar en el lenguaje habitual y podría considerarse un cambio fallido </strong>como el que hemos visto en el caso de HBO Max", sostiene Francisco Pérez Latre, director académico de posgrados de la Facultad de Comunicación de la Universidad de Navarra. </p><p>Este experto se refiere así a <strong>los seis cambios de nombre de HBO desde 2010</strong>. El último, este mismo de julio cuando la plataforma de Warner Bros. Discovery decidió dar un paso atrás y, tras <a href="https://www.infolibre.es/medios/streaming-hbo-max-espana_1_1792883.html" target="_blank">renombrarse como Max en la primavera de 2024</a>, <strong>volvió a ser HBO Max. </strong></p><p>La explicación oficial de la compañía es que <strong>la marca HBO es sinónimo de la máxima calidad en el </strong><em><strong>streaming</strong></em><em> </em>y este regreso a su nombre hasta hace poco más de catorce meses servirá para impulsar el crecimiento. Razón no les falta ya que bajo su paraguas se encuentran series como<em> Los Soprano, Juego de Trono</em>s y su precuela <em>La Casa del Dragón</em>, <em>Succession</em>,<em> The White Lotus</em> o <em>The Last of Us</em>. Reconocen así que <strong>el </strong><em><strong>rebranding </strong></em><strong>fue un error</strong> tras prescindir de décadas de legado y prestigio buscando atraer a un público más amplio para pelear con Netflix. Por ello, han tirado de <a href="https://x.com/StreamMaxES/status/1942946014832255189" target="_blank">humor e ironía</a> para anunciar a sus usuarios el cambio de denominación. </p><p>Aunque muchos, durante este tiempo, se han seguido refiriendo a Max como HBO y con la vuelta de HBO Max seguirán usando HBO a secas. Una situación similar a la que atraviesa X con Twitter, cuestión con la que también han bromeado en la plataforma de <em>streaming </em>durante las últimas semanas: <strong>"Te toca, @X". </strong></p><p>¿Podría hacer lo mismo X? "<strong>No preveo nuevos</strong> cambios en una marca que, en el fondo, sirve a la estrategia actual de Musk. Aunque ya sabemos que cambia mucho de ideas", reconoce Pérez Latre. Aunque, quizás esta modificación llegaría demasiado tarde para X. <strong>"La plataforma ya funciona como funciona. Es muy difícil que pueda cambia</strong>r", asegura Pérez Altable </p><p>Porque, en realidad, lo que esconde el cambio de nombre y logo es la evidencia más clara de que Twitter ya no existe ni es la misma red social que era antes de que Musk la comprara. Para Pérez Altable, <strong>X es ahora "una plataforma totalmente diferente"</strong>: "Se ha roto con lo anterior".  </p><p>¿Cómo? Durante los dos años y medio que lleva el magnate al frente de X, el hombre más rico del mundo le ha hecho<strong> un lavado de cara en profundidad </strong>que va más allá del nombre y el logo. <strong>"No vamos a mitificar a Twitter"</strong>, aclara Pérez Altable que recuerda que la red social <a href="https://www.infolibre.es/medios/bots-twitter-musk-red-social_1_1237467.html" target="_blank">tenía graves problemas</a> antes de octubre de 2022 aunque ahora nos empeñemos en recordar a la plataforma del pájaro azul como un lugar idílico. "<strong>Nunca se pareció mucho a la opinión pública,</strong> porque allí siempre abundan perfiles más ideologizados y activistas que no pueden ser plenamente representativos de la sociedad, pero esos rasgos quizá se acentuaron tras la llegada de Musk", indica Pérez Latre. </p><p>En sus primeros días como su dueño, Musk despidió a <a href="https://www.infolibre.es/medios/momento-lavabo-musk-despedir-mitad-plantilla-via-email-diez-dias-cambiaron-twitter_1_1355733.html" target="_blank">gran parte de la plantilla</a>, incluido a gran parte del equipo de <strong>moderación</strong>, cargándose así de un plumazo las políticas existentes en esta materia e implementado unas <a href="https://www.infolibre.es/medios/bulos-trump-feijoo-cambiado-musk-moderacion-fake-news-x_1_1569091.html" target="_blank">prácticamente inútiles notas de comunidad</a> que d<strong>an vía libre a la desinformación, el discurso de odio o la pornografía</strong>. "La impresión es que se han acentuado algunos rasgos de extremismo que ya se intuían en una plataforma donde la lógica de la interacción y la "viralidad" son más importantes que la lógica de la verdad", apunta Pérez Latre.  </p><p>Creó el sistema de pago <strong>Twitter Blue</strong>, posteriormente X Blue, que <a href="https://www.infolibre.es/medios/musk-twitter-pago-detras-bulos-mataron-elena-salgado-felipe-gonzalez_1_1464518.html" target="_blank">terminó con las insignias de verificación</a> tal y como se conocían y se entendían, y <strong>desarrolló la pestaña para ti que cambió el sistema de recomendación de la plataforma</strong> modificando un algoritmo que ahora juega a favor de las posturas más radicales. Una <a href="https://www.infolibre.es/medios/discursos-odio-aumentaron-50-x-musk-tuitero-jefe_1_1943927.html" target="_blank">investigación de profesores de las universidades de California y del Sur de California</a> publicado en febrero de 2025 concluyó que el discurso de odio aumentó un 50%, que la transfobia experimentó un crecimiento semanal del 260% mientras que los mensajes racistas lo hicieron un 42% y los homófobos, un 30%. </p><p><strong>"El odio se expande sin ningún tipo de control</strong>, como se ha visto en <a href="https://www.infolibre.es/medios/redes-sociales-espejo-feria-amplifican-odio-no-son-reflejo-sociedad_1_2033876.html" target="_blank">Torre Pacheco</a>. El contenido que hay es de extrema derecha", reconoce Pérez Altable. Esta experta señala que lo único que podría solucionar la situación sería "volver a la moderación de contenido": "Y con Musk esto no va a pasar, no es un escenario a futuro. Ni aunque venda la red social, porque no lo haría a alguien que le diera un giro a la plataforma". </p><p>Y, en medio de la ola de inteligencia artificial,<strong> ha implementado en la plataforma a Grok</strong>, que va de polémica en polémica por sus respuestas <a href="https://www.infolibre.es/medios/ia-arma-ideologica-logro-musk-convertir-grok-chatbot-toxico-mercado_1_2000353.html" target="_blank">convertido ya en el chatbot más tóxico del mercado</a>. En solo un par de meses, negó el Holocausto, difundió teorías conspirativas sobre un supuesto "genocidio blanco" en Sudáfrica, empezó a alucinar hasta el punto de creerse que era el propio Musk y llegó a responder que la mejor persona para lidiar con el "odio anti-blanco" sería "Adolf Hitler, sin duda". </p><p>Además, desde mediados de julio, los usuarios que paguen por el acceso a SuperGrok ( a versión premium que cuesta 30 dólares al mes) pueden interactuar con avatares conversacionales, conocidos como <strong>"Companions"</strong>, entre ellos Ani, un personaje femenino de anime​ con opción a desnudarse. La cosa podría empeorar porque al multimillonario no se le ha ocurrido otra cosa en medio de toda la polémica que anunciar la creación de una versión para niños: <strong>"Baby Grok"</strong>. </p><p>Todos estos cambios han generado una plataforma mucho más hostil que ha provocado <strong>una huida de anunciantes</strong>. "Se destruyó el valor de la marca y se convirtió en un lugar poco seguro para los anunciantes", sostiene Pérez Latre. </p><p>Y también comenzó <a href="https://www.infolibre.es/medios/huir-no-x-musk-llevar-tuits-brazo_1_1918839.html" target="_blank">un éxodo de usuarios</a>. En España, según <a href="https://cadenaser.com/nacional/2025/07/19/la-red-social-x-ha-perdido-mas-de-un-tercio-de-sus-usuarios-en-el-ultimo-ano-en-espana-cadena-ser/" target="_blank">datos de Gfk Media publicados por la Cadena Ser</a>, el desplome de la plataforma ha sido notable en el último año: una caída del 36% desde 2024, es decir, <strong>más de un tercio ha abandonado X</strong>. "Su audiencia sigue siendo valiosa, con cierta concentración de políticos, periodistas, perfiles institucionales o <em>influencers </em>que la utilizan para tener presencia pública o informarse", apunta Pérez Latre. </p><p>Ante esta situación, <a href="https://www.infolibre.es/medios/mastodon-bluesky-threads-nadie-capaz-quitarle-trono-x_1_1720240.html" target="_blank">muchos en la industria tecnológica quisieron sacar rédito</a> publicando sus propias versiones de Twitter o potenciando plataformas similares que ya existían y que vivían bajo la larga sombra del pájaro azul. "Los competidores de X no han conseguido nunca despegar", reconoce Pérez Latre. <strong>Mastodon</strong>, que se describe a sí misma como <a href="https://www.infolibre.es/medios/mastodon-twitter-nazis-red-quiere-alternativa-nuevo-juguete-musk_1_1361364.html" target="_blank">un Twitter sin nazis y como una red que "no está a la venta"</a>, incrementó sus usuarios en un 215% tras la irrupción de Musk con su versión de un "Twitter sin nazis". </p><p>El imperio de Mark Zuckerberg lanzó <strong>Threads</strong>, con <a href="https://www.infolibre.es/medios/oportunidad-zuckerberg-destronar-musk-tuitero-jefe-pasa-triunfar-threads-ue_1_1660568.html" target="_blank">un gran éxito inicial</a> gracias a su conexión con Instagram. Aunque, posteriormente el crecimiento se estabilizó e incluso se ralentizó, según <a href="https://techcrunch.com/2025/07/07/threads-is-nearing-xs-daily-app-users-new-data-shows/" target="_blank">datos de Similarweb publicados por TechCrunch</a> del pasado mes de junio, la aplicación de Meta se acerca a los usuarios diarios de la app móvil de X. Y <strong>Bluesky</strong>, que nació en 2019 como un experimento dentro de la propia tecnológica, y que ahora <a href="https://www.infolibre.es/medios/bluesky-x-musk_1_1902886.html" target="_blank">es refugio para los exiliados de X</a> gracias a unas fuertes y claras políticas de moderación y un diseño que recuerda, y mucho, al Twitter original.</p><p>El éxodo de usuarios no puede explicarse sólo por el estado en el que ha dejado a la plataforma. La estrecha conexión entre Musk y sus empresas, tras <strong>su breve incursión en la Administración Trump </strong>al frente del Departamento de Eficiencia Gubernamental, también le ha costado caro, sobre todo a Tesla. </p><p>Hoy, con el hombre más rico del mundo lejos de Washington y tras <a href="https://www.infolibre.es/internacional/encubrimiento-desplome-bursatil-guerra-declaraciones-cronologia-ruptura-trump-musk_1_2008744.html" target="_blank">su ruptura en directo con su antiguo aliado Trump</a>, <strong>X sigue siendo un altavoz clave para el movimiento MAGA </strong>y para los planes de un <a href="https://www.infolibre.es/internacional/musk-no-sera-kriptonita-trumpismo-nuevo-partido-abocado-fracaso_1_2026976.html" target="_blank">posible tercer partido</a>. "Detrás de la adquisición de Twitter hubo algo más: quería intentar influir en la opinión pública. No compró solo la plataforma, <strong>compró un generador de opinión y, sobre todo, compró poder</strong>", asegura Pérez Altable. </p><p>Una de las primeras consecuencias más visibles del regreso de Musk a su faceta de empresario ha sido <a href="https://www.infolibre.es/internacional/musk-queda-mano-derecha-x-linda-yaccarino-directora-ejecutiva-red-social-presenta-dimision_1_2028936.html" target="_blank">la salida de Linda Yaccarino de X</a>. La ejecutiva ha dejado su puesto al frente de la red social menos de dos años después de ser fichada por el magnate. <strong>De momento no hay sustituto.</strong></p><p>Con Yaccarino, <a href="https://techcrunch.com/2025/07/09/xs-ad-business-improved-under-departing-ceo-linda-yaccarino-but-its-still-tough-times-ahead/" target="_blank">el ecosistema publicitario se recuperó</a> e implementó el proyecto de billetera digital y pagos. Aunque, según publicó <a href="https://www.ft.com/content/833c5b55-4a64-430d-9332-255f46883e71" target="_blank"><em>Financial Times</em></a>, Musk <strong>no estaba dispuesto a ponerla al frente de xAI</strong>, tras la venta de X a esta startup de inteligencia artificial, en una operación sin precedentes y cargada de opacidad. </p>]]></description>
      <guid isPermaLink="false"><![CDATA[2fc1a13f-9270-452c-83f6-270b63d1888d]]></guid>
      <pubDate><![CDATA[Sat, 26 Jul 2025 16:39:02 +0000]]></pubDate>
      <author><![CDATA[Alba Precedo]]></author>
      <enclosure url="https://static.infolibre.es/clip/b2b2c756-c8dd-4f87-8e76-7e0e61799102_16-9-aspect-ratio_default_0.jpg" length="44155" type="image/jpeg"/>
      <media:content url="https://static.infolibre.es/clip/b2b2c756-c8dd-4f87-8e76-7e0e61799102_16-9-aspect-ratio_default_0.jpg" type="image/jpeg" fileSize="44155" width="1200" height="675"/>
      <media:title><![CDATA[X no logra borrar a Twitter dos años después o lo que podría aprender Musk de la marcha atrás de HBO Max]]></media:title>
      <media:thumbnail url="https://static.infolibre.es/clip/b2b2c756-c8dd-4f87-8e76-7e0e61799102_16-9-aspect-ratio_default_0.jpg" width="1200" height="675"/>
      <media:keywords><![CDATA[Redes sociales,X (Twitter),Elon Musk,Tecnología digital,Internet,HBO,Bluesky,Meta]]></media:keywords>
    </item>
    <item>
      <title><![CDATA[Cuando el odio es viral o cómo las redes sociales amplifican la ola ultra y distorsionan la realidad]]></title>
      <link><![CDATA[https://www.infolibre.es/medios/redes-sociales-espejo-feria-amplifican-odio-no-son-reflejo-sociedad_1_2033876.html]]></link>
      <description><![CDATA[<p><img src="https://static.infolibre.es/clip/286077ef-b8d2-47fe-8650-fbc3881c7b4b_16-9-aspect-ratio_default_0.jpg" width="1200" height="675" alt="Cuando el odio es viral o cómo las redes sociales amplifican la ola ultra y distorsionan la realidad"></p><p>La normalidad vuelve poco a poco a <a href="https://www.infolibre.es/politica/torre-pacheco-espejo-espanas-politicas-juegan-proximo-ciclo-electoral_1_2032722.html" target="_blank">Torre Pacheco</a> tras diez días de tensión después de que los ultras convirtiesen a esta localidad murciana en <a href="https://www.infolibre.es/politica/delitos-racistas-suben-43-ultimo-lustro-calor-discurso-ultra-incendia-torre-pacheco_1_2031120.html" target="_blank">una auténtica olla a presión</a>. La excusa, esta vez, fue la agresión sufrida por un vecino de 68 años. Antes de que la violencia llegase a las calles, en redes sociales, sobre todo a través de <strong>X, Telegram y YouTube</strong>, se regó el racismo, se señaló a la comunidad migrante y se hicieron llamadas "a cazar magrebíes". Se repite así un patrón ya habitual durante los últimos años y un ejemplo más de una lacra totalmente enraizada en las entrañas de estas plataformas que prometieron en sus inicios conectar al mundo y que han terminado convertidas en altavoces del <a href="https://www.infolibre.es/medios/haters-x-corona-red-discurso-odio-seguida-instagram-facebook-tiktok-youtube_1_1907316.html" target="_blank">discurso del odio</a> y de la desinformación.</p><p>En el caso de Torre Pacheco, el odio ha saltado de las redes sociales a unas calles que, a pesar de lo que nos venden, no siempre son el reflejo de lo que pasa en la esfera digital. Según <a href="https://www.sciencedirect.com/science/article/abs/pii/S2352250X24001313" target="_blank">un estudio</a> de los profesores Claire E. Robertson, Kareena S. del Rosario y Jay J. Van Bavel de la Universidad de Nueva York publicado a finales de 2024, <strong>las discusiones en línea están dominadas por una minoría "sorprendentemente pequeña, extremadamente vocal y no representativa"</strong>. En concreto, los autores calculan que si bien sólo el 3% de las cuentas son tóxicas, producen el 33% de todo el contenido que "genera descontento, difunde desinformación y provoca indignación en línea". </p><p>Además, y aquí está lo más preocupante, <strong>sesga las "metapercepciones de la mayoría de los usuarios"</strong> conduciendo a una falsa polarización y normalizando comportamientos peligrosos. "Es evidente que las redes sociales son menos un reflejo neutral de la sociedad y más un espejo de feria", aseguró Jay J. Van Bavel en un reciente artículo en <a href="https://www.theguardian.com/books/2025/jul/13/are-a-few-people-ruining-the-internet-for-the-rest-of-us" target="_blank"><em>The Guardian</em></a> en el que explica que en estas plataformas no se obtiene una "muestra representativa de opiniones" sino "una avalancha de contenido extremo y con una fuerte carga emocional": "A muchos <strong>nos hacen creer que la sociedad está mucho más polarizada, enfadada y engañada</strong> de lo que realmente está". </p><p>Este comportamiento no es algo arbitrario, sino que es <strong>una consecuencia de cómo están diseñadas las redes sociales </strong>para mantener a los usuarios enganchados. "Los algoritmos priorizan el contenido que genera más interacción, y lo que más <em>mueve a la acción </em>a las personas no es el relato moderado, sino la aparición de las emociones morales como la rabia, el miedo o la indignación", reconoce <strong>Lucía Andaluz</strong>, profesora doctora en la Universidad Europea y experta en desinformación. </p><p>Completa esta idea <strong>Leticia Rodríguez Fernández</strong>, investigadora y profesora de Relaciones Públicas en la Universidad de Cádiz: "<strong>Las emociones más negativas tienden a generar una reacción más rápida y con mayor durabilidad en el tiempo</strong> que hacen que contenidos tengan mayor número de interacciones y, por tanto, alcancen mayor visibilidad". Para esta experta, no solo influye el propio diseño del algoritmo, también es relevante el "comportamiento humano", la "coyuntura sociológica y política" y el <a href="https://www.infolibre.es/politica/dni-tuitear-ordenes-alejamiento-redes-perseguir-odiadores-posible-faltan-leyes_1_1865720.html"  >anonimato en la red</a>. "Hay cosas que uno a lo mejor no diría en alto por miedo a ser juzgado, pero que en la red, al encontrarnos en situaciones de anonimato sí que se dicen", sostiene. </p><p>Esta polarización se multiplica en <strong>los debates políticos</strong>. Según el estudio de los investigadores de la Universidad de Nueva York, <strong>alrededor del 90% de las opiniones políticas están representadas por menos del 3% de los tuits,</strong> ya que el 97% de las publicaciones políticas proceden del 10% de los usuarios. </p><p>"Los contenidos con narrativas extremistas se viralizan con mayor alcance porque apelan fuertemente a nuestras emociones más viscerales y simplifican realidades complejas. Y lo hacen a través de la manipulación de datos y hechos inventados o descontextualizados", sostiene Andaluz. En cambio, según explica, <strong>las voces "más moderadas o matizadas" </strong>suelen ser "castigadas por el sistema, porque reciben menos alcance, menos <em>likes </em>y<em> </em>menos clics, y este hecho, distorsiona la forma en la que la audiencia percibe lo que está pasando". </p><p>¿Hasta qué punto esta amplificación de voces extremas cambia la percepción social? Según detalla Rodríguez Fernández, esto está relacionado con<strong> "la cámara eco y el filtro burbuja"</strong> que se genera en las redes sociales. "Por un lado, terminamos consumiendo contenidos relacionados con nuestro sesgo ideológico y esto lo refuerza aún más. Y, por otro, el algoritmo nos suministra publicaciones que van conforme al sesgo", señala esta experta. </p><p>"Cuando vemos odio una y otra vez, acabamos anestesiados. Lo empezamos a ver como <em>la nueva normalidad</em>, cuando no lo es", avisa Andaluz que apunta que el problema es que si no se confrontan estos contenidos con "datos, hechos verificados e información contrastada" se construye <strong>"un relato paralelo falso"</strong> y "<strong>una especie de postverdad</strong> que acaba instalándose en la opinión pública, aunque esté muy lejos de lo que realmente está pasando". "Así es como se normalizan las ideas más radicales: no porque sean mayoría, sino porque ocupan más espacio. Y eso, si no se corrige, tiene un impacto directo en cómo miramos al otro, cómo votamos o incluso cómo actuamos en la calle", admite. </p><p>Y así, volvemos a Torre Pacheco que, como decíamos antes, no es un caso aislado. Si nos remontamos en el tiempo, en 2017, está <a href="https://www.amnesty.org/es/latest/news/2022/09/myanmar-facebooks-systems-promoted-violence-against-rohingya-meta-owes-reparations-new-report/" target="_blank">más que documentado</a> cómo Facebook fue clave en l<strong>a limpieza étnica de 2017 en Myanmar,</strong> donde miles de rohinyás fueron víctimas de un linchamiento. En 2019, el político alemán <strong>Walter Lübcke </strong>fue asesinado por un neonazi por su postura prorrefugiados tras recibir amenazas de muerte a través redes sociales y filtrarse en una de estas plataformas la dirección de su casa. </p><p>Más recientemente, hace justo un año, en <strong>Reino Unido</strong>, en un caso muy similar al de Torre Pacheco, la difusión de un bulo sobre el <a href="https://www.infolibre.es/mediapart/respuesta-antirracista-britanica-convoca-gente-disturbios-odio_1_1859430.html" target="_blank">origen del asesino de tres menores en Southport</a> provocó un estallido de odio que se extendió por varias ciudades británicas. En España, se intentó pocos días después, aunque sin éxito, tras <a href="https://www.infolibre.es/politica/crimen-nino-mateo-ultraderecha-replicar-espana-bulo-viral-incendio-reino-unido_1_1864975.html" target="_blank">el crimen del niño Mateo en Mocejón (Toledo)</a>. </p><p>Ahora, en cambio, en Murcia sí que prendió la mecha y los disturbios tomaron las calles tras conquistar la esfera digital. "<strong>Las redes sociales son el perfecto escenario en el que el odio se normaliza y, al mismo tiempo, sirven como canal logístico</strong> para que se traduzca en acciones concretas. <a href="https://www.infolibre.es/politica/hay-matar-moro-radiografia-grupos-ultras_1_2031795.html" target="_blank">En Torre Pacheco lo hemos visto</a>: primero el relato falso de que los migrantes son<em> una amenaza </em>y luego los mensajes que incitan a <em>cazarlos</em>", explica Andaluz. </p><p>Los primeros tuits virales se publicaron <strong>entre los días 9 y 10 de julio </strong>por cuentas vinculadas a Vox, como <a href="https://x.com/herqles_es" target="_blank">HerQles</a>, <a href="https://x.com/gaceta_es" target="_blank">La Gaceta</a> o <a href="https://x.com/revuelta_es" target="_blank">Revuelta</a>, y a <a href="https://www.infolibre.es/medios/influencers-ultras-ferraz_1_1650610.html" target="_blank"><em>influencers </em></a><a href="https://www.infolibre.es/medios/influencers-ultras-ferraz_1_1650610.html" target="_blank">ultras como Vito Quiles</a>. <strong>De X, saltaron a grupos de Telegram,</strong> convertida ya más en una herramienta de organización y coordinación para los ultras que en una de difusión de bulos. "Esta <em>app </em>permite que se creen canales con miles de personas donde se comparten mensajes que <a href="https://www.infolibre.es/politica/delitos-odio-bajan-13-8-2024-mitad-racismo-crece-antisemitismo_1_2033828.html" target="_blank">podrían considerarse como delito en cualquier otro espacio</a>", apunta Andaluz. </p><p>Por ejemplo, <strong>el eurodiputado Luis Alvise Pérez</strong> difundió en su Telegram el retrato con nombre y apellidos de cinco personas a las que culpó de la agresión. Por su parte, en los canales de <a href="https://www.infolibre.es/politica/son-deport-them-now_1_2032013.html" target="_blank">Deport Them Now</a>, muchos cerrados tras esta semana, se comenzaron a lanzar <strong>mensajes para hacer "cacerías" contra migrantes</strong> en Torre Pacheco. "Esto es como la película de <em>La Purga</em>, son apelaciones a la movilización y a la agitación social dentro del principio de unanimidad: veo que hay mucha gente que piensa como yo, por lo tanto tengo razón, y tengo la capacidad de unirme a esas personas", asegura Rodríguez Fernández. </p><p><strong>YouTube fue la tercera pata de la estrategia de la ultraderecha</strong> para propagar sus mensajes racistas. Incluso difundiendo contenidos falsos de la agresión al vecino de Torre Pacheco. Deport Them Now, por ejemplo, tenía en sus cuentas en redes sociales varios <strong>vídeos realizados con inteligencia artificial</strong>. Tal y como recogió <a href="https://www.lamarea.com/2025/07/14/un-grupo-de-telegram-que-llama-a-las-cacerias-racistas-abascal/" target="_blank">La Marea</a>, uno de estas publicaciones mostraba a un grupo de musulmanes en un campo de exterminio siendo conducidos a las cámaras de gas y asesinados por Santiago Abascal, al que han caracterizado vestido de oficial nazi.</p><p>¿Cómo afecta la irrupción de la inteligencia artificial a la situación actual en las redes? <strong>"La empeora y la agrava"</strong>, reconoce Rodríguez Fernández que recuerda que actualmente <a href="https://www.infolibre.es/medios/amenaza-deepfakes-ia-arma-manipulacion-desinformacion-habria-querido-goebbels_1_1960593.html"  >muchos partidos la usan para "exponer las miserias de los otros"</a> aunque saben que "la gente no va a creer que es real" pero "lo hacen para polarizar". Pero también hay otro tipo de usos. "<strong>La IA permite generar bulos mucho más sofisticados </strong>como audios falsos, imágenes creadas desde cero, vídeos manipulados con apariencia real, dificultando la detección y confundiendo a la ciudadanía", argumenta Andaluz. </p><p>No obstante, esta profesora también señala que se debe ver como una oportunidad ya que <strong>podría ser "una aliada clave en el</strong><em><strong> fact-checking</strong></em><strong>"</strong>. "Puede ayudarnos a frenar la desinformación antes de que se haga viral", apunta Andaluz. </p><p>Así, tras la situación vivida en Torre Pacheco, el Gobierno anunció esta misma semana que convocará a<strong> una reunión urgente a las principales plataformas de redes sociales </strong>en España para exigirles una respuesta más ágil y contundente ante <a href="https://www.infolibre.es/politica/delitos-odio-bajan-13-8-2024-mitad-racismo-crece-antisemitismo_1_2033828.html" target="_blank">la proliferación de contenidos que incitan al odio</a>. En total, según recoge <a href="https://www.infolibre.es/politica/ministerio-inclusion-detecta-aumento-racismo-redes-discurso-agresivo-sofisticado_1_2033091.html" target="_blank">los datos del último boletín correspondiente a junio del Observatorio Español del Racismo y la Xenofobia (Oberaxe)</a>, el 29% de los mensajes reportados fueron eliminados. Aunque la ministra de Inclusión, Seguridad Social y Migraciones, Elma Saiz, advirtió sobre las tasas especialmente bajas de X y YouTube. </p><p>La baja colaboración de X, que retiró un 9% de este contenido de odio, no es sorprendente en la era de Elon Musk. "<strong>Se ha convertido en un caso paradigmático de cómo una plataforma puede fallar, o directamente renunciar,</strong> a frenar la desinformación", asegura Andaluz que recuerda que han suprimido políticas clave contra las <em>fake news</em> y han dejado la verificación en manos de <a href="https://www.infolibre.es/medios/bulos-trump-feijoo-cambiado-musk-moderacion-fake-news-x_1_1569091.html" target="_blank">las Notas de Comunidad</a>. </p><p>A la ausencia total de moderación y de políticas, se suma un algoritmo que juega a favor de las posturas más radicales. Una <a href="https://www.infolibre.es/medios/discursos-odio-aumentaron-50-x-musk-tuitero-jefe_1_1943927.html" target="_blank">investigación de profesores de las universidades de California y del Sur de California</a> publicado en febrero de 2025 concluyó que <strong>el discurso de odio aumentó un 50%</strong>, que la transfobia experimentó un crecimiento semanal del 260% mientras que los mensajes racistas lo hicieron un 42% y los homófobos, un 30%. "Los contenidos sugeridos normalmente son extremos, contra la migración o contra la mujer", explica Rodríguez Fernández.</p><p>En el caso de <strong>YouTube, que apenas retiró un 5%, </strong>es, en cambio, llamativo ya que Google cuenta con <a href="https://policies.google.com/terms?hl=es" target="_blank">una clara política de moderación de publicaciones</a> que no permite difundir mensajes que inciten al odio o promuevan la violencia. "Sigue recomendando vídeos que promueven el odio o el negacionismo", apunta Andaluz que señala que esto no es solo "un problema de vigilancia técnica" sino también de "rendición de cuentas, de compromiso de estas plataformas". "<strong>Se desentienden cuando no hay consecuencias </strong>por permitir que se difunda contenido peligroso y lo que están haciendo es facilitar que se expanda sin control", defiende. </p><p>Unos datos que para el Ministerio de Inclusión supone<strong> una tendencia "preocupante"</strong> en el entorno digital en el primer semestre de 2025 ya que no solo ha aumentado el volumen del discurso del odio sino que se ha vuelto "más agresivo y sofisticado" en su forma de difusión. En total, según Oberaxe, se detectaron en junio más de 54.000 contenidos. En lo que va de 2025, los ataques se han concentrado de forma reiterada en un único grupo diana: las personas del norte de África, como <a href="https://www.infolibre.es/economia/contrato-4-horas-pago-8-12-migrantes-cobran-29-espanoles_1_2032641.html" target="_blank">ha pasado ahora en Torre Pacheco</a>. Este colectivo ha pasado de ser objetivo del 57% de estos mensajes en marzo al 81% en junio, convirtiéndose en el principal blanco de la hostilidad digital. </p>]]></description>
      <guid isPermaLink="false"><![CDATA[799bf764-1d73-44ae-a473-1b3c8857d83b]]></guid>
      <pubDate><![CDATA[Fri, 18 Jul 2025 18:28:13 +0000]]></pubDate>
      <author><![CDATA[Alba Precedo]]></author>
      <enclosure url="https://static.infolibre.es/clip/286077ef-b8d2-47fe-8650-fbc3881c7b4b_16-9-aspect-ratio_default_0.jpg" length="3262714" type="image/jpeg"/>
      <media:content url="https://static.infolibre.es/clip/286077ef-b8d2-47fe-8650-fbc3881c7b4b_16-9-aspect-ratio_default_0.jpg" type="image/jpeg" fileSize="3262714" width="1200" height="675"/>
      <media:title><![CDATA[Cuando el odio es viral o cómo las redes sociales amplifican la ola ultra y distorsionan la realidad]]></media:title>
      <media:thumbnail url="https://static.infolibre.es/clip/286077ef-b8d2-47fe-8650-fbc3881c7b4b_16-9-aspect-ratio_default_0.jpg" width="1200" height="675"/>
      <media:keywords><![CDATA[Redes sociales,Meta,Facebook,Instagram,X (Twitter),TikTok,YouTube,Tecnología digital,Internet,Racismo,ultraderecha,Extrema derecha]]></media:keywords>
    </item>
    <item>
      <title><![CDATA[Cuando la IA resume tus conversaciones o la trampa de ceder el control de tus mensajes a un algoritmo]]></title>
      <link><![CDATA[https://www.infolibre.es/medios/ia-resume-conversaciones-trampa-ceder-control-mensajes-algoritmo_1_2025557.html]]></link>
      <description><![CDATA[<p><img src="https://static.infolibre.es/clip/7854a2d4-41d5-425e-9e0e-0201245c3ebd_16-9-aspect-ratio_default_0.jpg" width="1200" height="675" alt="Cuando la IA resume tus conversaciones o la trampa de ceder el control de tus mensajes a un algoritmo"></p><p>La <a href="https://www.infolibre.es/temas/inteligencia-artificial/"  >inteligencia artificial</a> ha irrumpido en nuestras vidas como un elefante en una chatarrería. Ha llegado para cambiarlo todo y ha conquistado sutilmente móviles, redes sociales, buscadores, aplicaciones de mensajería y correos electrónicos. Ya no es ni una tecnología salida de un capítulo de <em>Black Mirror</em> ni una función más en el <em>smartphone </em>con la que mejorar la última foto o una utilidad encerrada en la aplicación de ChatGPT. Ahora es <a href="https://www.infolibre.es/medios/meta-google-x-despliegan-control-ia-convertirla-amiga-buscador-espia_1_1983682.html" target="_blank">una fiel compañera</a> en nuestros bolsillos que responde preguntas, organiza ideas, facilita procesos… Y <strong>ahora ha comenzado ya a ahorrarnos tiempo resumiendo nuestras conversaciones privadas. </strong></p><p>La idea parece, en principio, inofensiva: ayudarnos a ponernos al día sin perdernos lo esencial. Todos lo hemos vivido: un par de horas sin mirar en el móvil y ese grupo de WhatsApp acumula decenas y decenas de mensajes sin leer. Por ello, Meta ha comenzado a implementar <strong>los resúmenes de conversaciones </strong>en esta aplicación, por ahora<strong> solo en EEUU y en inglés</strong>, aunque su intención es llevarla a más países en breve. </p><p>Esta nueva opción se basa en la inteligencia artificial que lanzaron en abril. Hasta ahora y en un cambio radical de la aplicación que también incluye la introducción de publicidad, los usuarios podían acceder a <a href="https://www.infolibre.es/medios/publicaciones-fotos-facebook-instagram-inteligencia-artificial-meta_1_1805698.html" target="_blank">Meta AI</a> dentro del chat para hacer preguntas generales o etiquetar un mensaje para contextualizarlo. Pero con esta nueva funcionalidad, el objetivo es usarla para<strong> resumir de "forma privada y rápida" </strong>los mensajes no leídos en un chat para, <a href="https://blog.whatsapp.com/catch-up-on-conversations-with-private-message-summaries" target="_blank">según detallan desde la tecnológica</a>, "hacerte una idea de lo que está sucediendo antes de leer los detalles". </p><p>Sin embargo, lo que parece una ayuda, abre la puerta a <strong>un lado oscuro lleno de amenazas </strong>para la privacidad, dilemas éticos y dudas sobre cómo una máquina puede interpretar nuestras conversaciones. Sobre todo en un entorno como el del imperio de Mark Zuckerberg con un <a href="https://www.infolibre.es/medios/fiscal-general-mensajes-whatsapp-google_1_1967982.html" target="_blank">amplio historial de escándalos</a> como Cambridge Analytica o <a href="https://www.infolibre.es/medios/jeff-horwitz-periodista-desvelo-papeles-facebook_1_1787960.html" target="_blank"><em>Los papeles de Facebook</em></a>. </p><p>Conscientes de su mala fama, desde Meta han vendido esta nueva herramienta dejando claro desde el principio que estos resúmenes utilizan lo que ellos llaman <a href="https://engineering.fb.com/2025/04/29/security/whatsapp-private-processing-ai-tools/" target="_blank">"tecnología de procesamiento privado</a>" insistiendo en que <strong>los mensajes de WhatsApp están cifrados de extremo a extremo</strong>. Según argumentan en su blog de ingeniería, esto permite a Meta AI generar una respuesta sin que "<strong>nadie, excepto tú y tus interlocutores" pueda "acceder ni compartir tus mensajes personales</strong>, ni siquiera Meta o WhatsApp". "Los datos compartidos con Private Processing se procesan en un entorno que no los pone a disposición de ningún otro sistema. Esta protección se refuerza mediante el cifrado de datos de extremo a extremo entre el cliente y la aplicación", completan.</p><p>Es decir, según sus explicaciones, lo que se traslada, tal y como detalla <a href="https://www.xataka.com/aplicaciones/whatsapp-ahora-resume-tus-mensajes-no-leidos-pregunta-como-demonios-hace-leer-tus-mensajes" target="_blank">Xataka</a>, es como <strong>si en Meta hubieran inventado un empleado para WhatsApp con amnesia</strong>: puede hacer su trabajo, leer tus conversaciones para resumirlas, pero inmediatamente olvida lo que ha visto. ¿Es esto posible? "Si la herramienta está programada para eso, sí. En programación y computación, el código está compuesto de órdenes y una de ellas puede ser, perfectamente, el borrado de datos que ya han sido analizados", asegura<strong> Clara González Tosat,</strong> profesora de IA de la Facultad de Comunicación de la Universidad de Comunicación. "Esto implica que el modelo puede recibir el contenido, procesarlo, generar una respuesta y luego eliminar la información recibida sin almacenarla en ningún sitio", añade esta experta. </p><p><strong>Elisa Gutiérrez García</strong>, profesora de la Universidad Complutense, no lo tiene tan claro: "Lo que cabe preguntarse es<strong> dónde se alojan los modelos de IA </strong>que sirven al propósito de la nueva aplicación y si no son servidores de WhatsApp". Para esta experta en IA, derecho y derechos humanos, es "difícil pensar que un tratamiento de la información semejante quede vedado al acceso de la plataforma", sobre todo, recuerda, "si tenemos en cuenta que todas las inteligencias artificiales que se ofrecen de forma gratuita o a bajo coste <strong>se arrogan el derecho paralelo a emplear el contenido del usuario para mejorar sus modelos</strong>". </p><p>Más allá de los intentos de WhatsApp por intentar convencer a sus usuarios de su buena fe, lo cierto es que Meta no es el primero en añadir este tipo de funciones. <strong>Google</strong>, por ejemplo, ya lo hace gracias a la implementación de Gemini en Gmail desde el pasado otoño con sus <a href="https://support.google.com/mail/answer/15604322?sjid=17827381730788041714-EU#gcm&zippy=%2Cfunciones-inteligentes-en-gmail-chat-y-meet%2Ccu%C3%A1les-son-las-bases-legales-de-google-sobre-el-tratamiento-de-los-datos-de-los-usuarios-del-espacio-econ%C3%B3mico-europeo-el-reino-unido-o-suiza%2Cdurante-cu%C3%A1nto-tiempo-se-usa-tu-contenido-y-tu-actividad-de-workspace-para-ofrecer-funciones-inteligentes-y-mejorarlas%2Csmart-features-in-gmail-chat-meet%2Cwhat-are-googles-legal-bases-of-processing-for-users-in-the-european-economic-area-united-kingdom-or-switzerland%2Chow-long-is-your-workspace-content-activity-used-to-provide-smart-features-and-to-improve-these-features" target="_blank">tarjetas de resumen</a> que se pueden activar en los correos electrónicos. Los de Mountain View <a href="https://support.google.com/mail/answer/10434152?hl=en" target="_blank">nunca han ocultado</a> que acceden y leen los <em>emails</em>. Aunque siempre han defendido que lo hacen para escanearlos y así "detectar spam y malware" y "mejorar la funcionalidad del servicio". </p><p>La idea de WhatsApp se parece más a lo que lleva implementando <strong>Apple </strong>desde el verano de 2024 con <a href="https://support.apple.com/es-es/guide/iphone/iphe3f499e0e/ios" target="_blank">Private Cloud Computer</a>. La tecnológica de la manzana mordida luce la privacidad de sus usuarios por bandera por lo que la piedra angular de su inteligencia artificial es "el procesamiento desde el dispositivo" de modo que la herramienta "está al tanto de tu información personal sin recopilarla". </p><p>Meta, Google y Apple lo tienen claro. Pero con la fama de las tecnológicas y la que también se está labrando la inteligencia artificial, genera muchas dudas la cara b que<strong> pueden tener estos, en principio, inofensivos resúmenes de conversaciones privadas</strong>. Las expertas consultadas por <strong>infoLibre </strong>señalan cinco riesgos.</p><p>El primero, y más grave, es cómo afecta a<strong> la privacidad</strong>. "Cualquier información compartida en WhatsApp, en este caso, es <a href="https://www.infolibre.es/medios/whatsapp-musk-redes-sociales-vigilan_1_1495912.html" target="_blank">susceptible de ser pirateada</a> si no se cumplen con los protocolos de ciberseguridad", defiende González Tosat. "Sin entrar en el empleo torticero que puedan hacer las tecnológicas de esos mensajes privados para "mejorar" la oferta de sus servicios, <strong>hay que tener en cuenta a terceros, ajenos a la plataforma</strong>, que por una brecha de seguridad o de cualquier otro modo puedan acceder a nuestro contenido privado", recuerda Gutiérrez García que apunta que "siempre que los datos se almacenen o procesen fuera de nuestros dispositivos, la privacidad queda comprometida". </p><p>El segundo, estrechamente relacionado con el primero, es que se usen los datos de estas conversaciones privadas para <strong>entrenar al modelo de inteligencia artificial</strong>. "Y hacerlo sin que el usuario tenga conocimiento de ello, aunque esto tiene más que ver con el tema de la transparencia y la <em>explicabilidad </em>del código", asegura González Tosat. </p><p>El tercero es que afecta al <strong>derecho a una comunicación libre. </strong>Esto se podría producir, sostiene Gutiérrez García, al <strong>perderse información que el sistema considera "secundaria"</strong> cuando es de "vital importancia para el receptor" y si se tergiversa "la valoración, opinión o juicio de valor realizado por el emisor". </p><p>Esto puede suponer, y aquí el cuarto riesgo, que <strong>se malinterpreten los mensajes</strong>. "En conversaciones sensibles podrían llegar a generar malentendidos bastante graves", reconoce González Tosat que apunta que todo depende también de cómo se haya entrenado esta inteligencia artificial y exige "una revisión crítica y supervisión humana": "En contextos interpretativos, emocionales o incluso estratégicos es muy sencillo que se pierdan matices, o que se dé peso a partes del mensaje que no son tan relevantes". </p><p>"<strong>A la inteligencia artificial le cuesta identificar y procesar la ironía de los humanos</strong>", recuerda Gutiérrez García. Es decir, que la herramienta, por muy inteligente que sea, puede perder matices, formas concretas de expresarse y también bromas habituales que cada usuarios usa al comunicarse. "Entender lo contrario es como pensar que una IA puede resumir la obra de <em>El Principito </em>sin alterarla. La profundidad filosófica y las metáforas contenidas en el texto de Antoine de Saint-Exupéry, bajo su aparente sencillez, se perderían bajo el tamiz de esta tecnología", defiende esta experta. </p><p>Y el quinto y último, que <strong>se cometan errores ortográficos o se hagan traducciones incorrectas</strong>. Algo que, por cierto, ya está pasando en herramientas ya muy asentadas como las traducciones de Google en los correos de Gmail. </p><p>La <a href="https://elpais.com/defensor-a-del-lector/2025-06-15/los-correos-de-milagros-perez-oliva-que-reescribe-gmail.html" target="_blank">Defensora del Lector de </a><a href="https://elpais.com/defensor-a-del-lector/2025-06-15/los-correos-de-milagros-perez-oliva-que-reescribe-gmail.html" target="_blank"><em>El País</em></a> alertaba a mediados de junio de que habían detectado que aquellos usuarios con<strong> opción "traducir siempre automáticamente" </strong>recibían sus <em>newsletter </em>con "errores de bulto". La causa era que la traducción funcionaba sobre textos en español generando errores y cambios de sentido: por ejemplo, en un titular en lugar de "planes" aparecía "aviones" ya que <em>plane </em>se traduce al castellano como <em>avión</em>. Algo que, por cierto, también pasa con los boletines de <strong>infoLibre </strong>si se tiene activada esta funcionalidad.  "Los traductores no son infalibles, sin entrar en el propio sesgo que presentan. La polisemia de las palabras hace que esta labor sea complicada", reconoce Gutiérrez García. </p><p>Según explica González Tosat, las traducciones automáticas generalmente usan "métodos muy directos, es decir, palabra por palabra": "Con la llegada de la inteligencia artificial <strong>las traducciones se han vuelto más precisas puesto que se basan en probabilidad</strong>: mediante cálculos matemáticos analizan grandes volúmenes de texto para predecir qué palabra o construcción es más probable en un determinado contexto lingüístico". Esto permite traducciones "más fluidas y adaptadas al uso real del idioma". Sin embargo, tal y como matiza esta experta, no se puede olvidar que "los modelos de lenguaje actuales operan a partir de dichas correlaciones estadísticas sin una comprensión semántica profunda". </p><p>Es más,<strong> la IA de Apple también presentó problemas de precisión</strong> en sus resúmenes durante su lanzamiento. La compañía de Cupertino tuvo que cambiar la forma en la que se mostraban las notificaciones resumidas de su inteligencia artificial después de que <a href="https://www.bbc.com/news/articles/cge93de21n0o" target="_blank">la BBC se quejara por cómo estaba reescribiendo sus titulares</a>. En concreto, llegó a enviar a sus usuarios que Luigi Mangione, el hombre acusado de matar al director ejecutivo de UnitedHealthcare, Brian Thompson, se había disparado o que Rafael Nadal se había declarado gay. </p><p>A pesar de los riesgos, las grandes tecnológicas son conscientes de sus movimientos. Mientras OpenAI con ChatGPT o <a href="https://www.infolibre.es/medios/ia-arma-ideologica-logro-musk-convertir-grok-chatbot-toxico-mercado_1_2000353.html" target="_blank">X con Grok</a> apuestan por <strong>un modelo público</strong> basado en la máxima de Silicon Valley de "si algo gratis, el producto eres tú", <strong>WhatsApp, Gmail y Apple intentan subirse al carro de lo que ya se conoce como inteligencia artificial privada </strong>desplegando herramientas que venden que protegen la privacidad y el control de los datos. </p><p>"Este concepto hace referencia a <strong>sistemas que procesan los datos directamente en el dispositivo, sin enviarlo a servidores remotos</strong>", sostiene González Tosat que señala, sin embargo, que las herramientas que utilizamos ahora dependen de "la nube". "Las aplicaciones que promueven Apple y Meta son una apuesta por el procesamiento local y el control total por parte del usuario. La implantación de estos sistemas reduciría de manera significativa los riesgos de filtración, por ejemplo", explica esta experta. </p><p>"En este entorno, <strong>los datos que se comparten con el sistema no deberían compartirse ni ser empleados para mejorar sus modelos</strong>. Este sistema debería entrenarse con los datos del usuario (no con grandes conjuntos de datos disponibles en internet), quien conservaría el absoluto control de los mismos", añade Gutiérrez García.  </p><p>Lo más parecido que existe actualmente a esta inteligencia artificial es el <strong>aprendizaje federado</strong>, que se usa sobre todo en el ámbito médico. Según detalla Gutiérrez García, se trata de una tecnología que "permite el desarrollo de sistemas de IA a través del<em> machine learning</em> o aprendizaje automático sin comunicar los datos personales entre los distintos usuarios". Es decir, que el entrenamiento del algoritmo tiene lugar de forma centralizada a través de distintos centros de datos que "generan modelos que serán compartidos entre las organizaciones que han participado en los entrenamientos con sus propios datos, pero estos datos conservarán su confidencialidad". </p>]]></description>
      <guid isPermaLink="false"><![CDATA[094abebd-b6cb-4e9a-bc56-bb29a5f64d20]]></guid>
      <pubDate><![CDATA[Sun, 06 Jul 2025 04:00:50 +0000]]></pubDate>
      <author><![CDATA[Alba Precedo]]></author>
      <enclosure url="https://static.infolibre.es/clip/7854a2d4-41d5-425e-9e0e-0201245c3ebd_16-9-aspect-ratio_default_0.jpg" length="113051" type="image/jpeg"/>
      <media:content url="https://static.infolibre.es/clip/7854a2d4-41d5-425e-9e0e-0201245c3ebd_16-9-aspect-ratio_default_0.jpg" type="image/jpeg" fileSize="113051" width="1200" height="675"/>
      <media:title><![CDATA[Cuando la IA resume tus conversaciones o la trampa de ceder el control de tus mensajes a un algoritmo]]></media:title>
      <media:thumbnail url="https://static.infolibre.es/clip/7854a2d4-41d5-425e-9e0e-0201245c3ebd_16-9-aspect-ratio_default_0.jpg" width="1200" height="675"/>
      <media:keywords><![CDATA[Meta,WhatsApp,Google,Apple,Inteligencia artificial,Tecnología digital,Internet]]></media:keywords>
    </item>
    <item>
      <title><![CDATA[La mitad de los españoles exige a la UE acciones para frenar a las llamadas 'big tech' en la era Trump]]></title>
      <link><![CDATA[https://www.infolibre.es/politica/mitad-espanoles-exige-ue-acciones-frenar-llamadas-big-tech-trump_1_2023964.html]]></link>
      <description><![CDATA[<p><img src="https://static.infolibre.es/clip/baeb1839-221e-4560-815f-043f9a0c753d_16-9-discover-aspect-ratio_default_0.jpg" width="1200" height="675" alt="La mayoría de españoles opina que las grandes tecnológicas son un problema para la democracia"></p><p>Una nueva encuesta de <a href="https://es.yougov.com/" target="_blank" >YouGov</a> realizada en <strong>Francia, Alemania y España</strong> revela que la mayoría de encuestados exigen firmeza ante las llamadas <em><strong>big tech</strong></em>, pese a que esto implique un perjuicio en las relaciones con <strong>Donald Trump.</strong> </p><p>El <strong>estudio de YouGov</strong> —empresa internacional de investigación de mercados y análisis de datos basada en Internet— muestra que la ciudadanía se postula en favor de que la UE tome medidas estructurales contra las grandes tecnológicas siguiendo su marco regulativo. De hecho, según los datos publicados, el <strong>49% de encuestados en España</strong> creen que la aplicación europea de las leyes que abordan la influencia y el poder de las grandes empresas tecnológicas es <strong>demasiado laxa.</strong> Tanto en Francia (63%) como en Alemania (59%) los porcentajes son más altos en esta cuestión. </p><p>Desde la llegada de Donald Trump a la Casa Blanca, las <strong>relaciones del presidente con los CEO de las </strong><em><strong>big tech</strong></em> se han estrechado. Esto, en España en general, es visto de manera <strong>muy negativa</strong> y los votantes de los partidos políticos que tienen una opinión más cercana a esta postura son los de <strong>Sumar</strong> (57%) y el <strong>PSOE</strong> (33%), mientras que entre los votantes de <strong>Vox</strong> tan solo el 11% ven estas dinámicas como algo perjudicial. </p><p>La mayoría de europeos <strong>no creen que estas </strong><em><strong>big tech</strong></em><strong> sean compatibles con un sistema democrático.</strong> En los tres países (Francia, Alemania y España), la mayoría de los encuestados cree que las grandes tecnológicas tienen un impacto negativo en la democracia europea: en España, más del doble considera que tienen un efecto negativo (41%) que positivo (18%). </p><p>En cuanto al <strong>poder de estas empresas</strong>, si excluimos a los encuestados que no están seguros (24% en Francia, 26% en Alemania y 16% en España), <strong>dos tercios de los encuestados</strong> (65%) de los tres países creen que las grandes empresas tecnológicas son más poderosas que la UE.</p><p>No es coincidencia que, según el medio de verificación <a href="https://maldita.es/malditatecnologia/20211201/multas-millonarias-tecnologicas-proteccion-datos/" target="_blank" >Maldita.es</a>, el sector de las tecnológicas es el que más gasta en hacer <strong>presión en las instituciones</strong> europeas con unos <strong>97 millones de euros</strong> invertidos al año. Esta cifra las sitúa por delante de <em>lobbys</em> como el de las farmacéuticas o el de los combustibles fósiles. </p><p>Además, según la encuesta, las personas no solo creen que esto tenga un impacto en la política, sino también en el <strong>periodismo</strong>: aunque los porcentajes son muy similares en Francia, el público se inclina hacia la creencia de que las grandes tecnológicas <strong>socavan el modelo de negocio de los medios de comunicación</strong> en Alemania y España, en comparación con los porcentajes que afirman que apoyan a los medios de comunicación y al periodismo independiente.</p><p>Este sondeo, encargado por las asociaciones <a href="https://peoplevsbig.tech/" target="_blank" >People vs BigTech</a> y <a href="https://www.wemove.eu/es/campaigns" target="_blank" >Movemos Europa</a>, se publica en un momento de tensiones entre <a href="https://www.infolibre.es/temas/estados-unidos/" target="_blank" >Estados Unidos</a> y la <a href="https://www.infolibre.es/temas/union-europea/" target="_blank" >Unión Europea</a> debido a la cuestión arancelaria y con las leyes tecnológicas europeas como nuevo tema encima de la mesa. Según la Comisión de la Unión Europea, tanto <a href="https://www.infolibre.es/temas/apple/" target="_blank" >Apple</a> como <a href="https://www.infolibre.es/temas/meta/" target="_blank" >Meta</a> no se enfrentarán a sanciones inmediatas por el incumplimiento de la normativa digital de la UE. </p><p>Ya en abril, <a href="https://www.infolibre.es/economia/ue-multa-apple-500-millones-euros-meta-200-millones-vulnerar-leyes-digitales_1_1982774.html" target="_blank" >la Comisión Europea multó a Apple y a Meta con 500 y 200 millones de euros</a> respectivamente por el incumplimiento de la <strong>Ley de Mercados Digitales</strong> (DMA) y dio a ambas empresas un plazo de 60 días para reajustar sus prácticas y entrar así en los marcos legales de la UE. Pero la Comisión retrasará dichas sanciones que no se impondrán de manera inminente, sino que primero se someterán a un análisis preliminar de la <strong>Comisión</strong>.</p><p>Esto se solapó con la resolución judicial estadounidense que<strong> tachó de ilegales las prácticas monopolísticas de Google</strong> en cuanto a su gestión de la publicidad online. El <strong>Departamento de Justicia estadounidense</strong> acusó a la empresa de manipulación de los mercados con el fin de expulsar a la competencia para mantener su dominio. También alegó que <strong>Google controla el 87% del mercado publicitario</strong> de los Estados Unidos. En 2016, <strong>Google realizó modificaciones en su política de privacidad</strong> para permitir la integración de los datos en todas sus plataformas de marketing lo que permitió que la empresa utilizara información muy personal extraída en segundo plano de cada usuario de Internet.</p><p>Tras estas polémicas, el debate del <strong>poder de las </strong><em><strong>big tech</strong></em> se ha vuelto a abrir. </p><p>La <strong>guerra comercial entre EEUU y la UE</strong> se ha intensificado desde mediados de marzo. <strong>Ursula von der Leyen</strong>, presidenta de la Comisión, en respuesta a los aranceles propuestos por Trump, ha amenazado con nuevos impuestos por publicidad digital para los servicios online estadounidenses. </p><p>Esta encuesta demuestra que la mayoría de los ciudadanos europeos no solo <strong>apoya a la UE</strong> en el cumplimiento de las medidas reguladoras para las grandes tecnológicas, sino que exigen que se <strong>impongan medidas más duras</strong> y que se apliquen las sanciones correspondientes para que las<em> big tech</em> dejen de ser un impedimento para el correcto desarrollo de la democracia en Europa. </p>]]></description>
      <guid isPermaLink="false"><![CDATA[1dd06d30-3782-4667-9162-c971eff2b1b2]]></guid>
      <pubDate><![CDATA[Wed, 02 Jul 2025 22:02:00 +0000]]></pubDate>
      <author><![CDATA[Ignacio Prieto]]></author>
      <enclosure url="https://static.infolibre.es/clip/baeb1839-221e-4560-815f-043f9a0c753d_16-9-discover-aspect-ratio_default_0.jpg" length="627384" type="image/jpeg"/>
      <media:content url="https://static.infolibre.es/clip/baeb1839-221e-4560-815f-043f9a0c753d_16-9-discover-aspect-ratio_default_0.jpg" type="image/jpeg" fileSize="627384" width="1200" height="675"/>
      <media:title><![CDATA[La mitad de los españoles exige a la UE acciones para frenar a las llamadas 'big tech' en la era Trump]]></media:title>
      <media:thumbnail url="https://static.infolibre.es/clip/baeb1839-221e-4560-815f-043f9a0c753d_16-9-discover-aspect-ratio_default_0.jpg" width="1200" height="675"/>
      <media:keywords><![CDATA[Redes sociales,Google,Meta,Apple,Donald Trump,Unión Europea,Ley protección datos,Tecnología digital]]></media:keywords>
    </item>
    <item>
      <title><![CDATA[Meta comienza a entrenar su IA con contenido público de residentes adultos en la UE]]></title>
      <link><![CDATA[https://www.infolibre.es/medios/meta-comienza-entrenar-ia-contenido-publico-residentes-adultos-ue_1_2002795.html]]></link>
      <description><![CDATA[<p><img src="https://static.infolibre.es/clip/261208ed-eac7-48eb-8d1d-acaf27661906_16-9-aspect-ratio_default_0.jpg" width="1200" height="675" alt="Meta comienza a entrenar su IA con contenido público de residentes adultos en la UE"></p><p><strong>Meta</strong> comienza desde este martes a <a href="https://www.infolibre.es/medios/meta-google-x-despliegan-control-ia-convertirla-amiga-buscador-espia_1_1983682.html" target="_blank" >entrenar su inteligencia artificial (IA) utilizando contenido público</a> —como publicaciones y comentarios— compartido por adultos en sus diversos productos dentro de la Unión Europea (UE), aunque <strong>existe la posibilidad de oponerse</strong>, según informa EFE. </p><p>La compañía, propietaria <strong>WhatsApp, Facebook o Instagram</strong>, empezó a enviar notificaciones el pasado abril a los usuarios en la UE, dentro de las aplicaciones y por correo electrónico, para explicar el tipo de datos que usará para entrenar a su IA.</p><p>Las notificaciones recibidas por los usuarios incluían <strong>un enlace a un formulario para oponerse, en cualquier momento</strong>, a que sus datos sean utilizados de esa manera y que está también disponible en su web.</p><p>Meta señala en su política de privacidad que usará para ese entrenamiento <strong>las interacciones del usuario </strong>con las funciones de la IA de Meta e <strong>información pública, como publicaciones y comentarios públicos</strong>, que se haya compartido en los productos de Meta.</p><p>Sin embargo, <strong>no usará el contenido de los mensajes privados </strong>que el usuario intercambia con amigos y familiares, a menos que él o alguien en el chat decida compartirlos con la IA, agrega.</p><p>Meta señaló el pasado abril que esa recopilación de datos ayudaría a que la inteligencia artificial<strong> entienda y refleje mejor las culturas, idiomas e historias </strong>de las personas en la región, beneficiando así tanto a usuarios como a empresas.</p>]]></description>
      <guid isPermaLink="false"><![CDATA[4ba89603-989d-4a55-a8e2-ab3b8cea2840]]></guid>
      <pubDate><![CDATA[Tue, 27 May 2025 08:54:52 +0000]]></pubDate>
      <author><![CDATA[infoLibre]]></author>
      <enclosure url="https://static.infolibre.es/clip/261208ed-eac7-48eb-8d1d-acaf27661906_16-9-aspect-ratio_default_0.jpg" length="4520352" type="image/jpeg"/>
      <media:content url="https://static.infolibre.es/clip/261208ed-eac7-48eb-8d1d-acaf27661906_16-9-aspect-ratio_default_0.jpg" type="image/jpeg" fileSize="4520352" width="1200" height="675"/>
      <media:title><![CDATA[Meta comienza a entrenar su IA con contenido público de residentes adultos en la UE]]></media:title>
      <media:thumbnail url="https://static.infolibre.es/clip/261208ed-eac7-48eb-8d1d-acaf27661906_16-9-aspect-ratio_default_0.jpg" width="1200" height="675"/>
      <media:keywords><![CDATA[Meta,Mark Zuckerberg,Inteligencia artificial,Redes sociales,Unión Europea,Tecnología digital]]></media:keywords>
    </item>
  </channel>
</rss>
