<?xml version="1.0" encoding="UTF-8"?>
<rss xmlns:media="http://search.yahoo.com/mrss/" xmlns:dc="http://purl.org/dc/elements/1.1/" xmlns:atom="http://www.w3.org/2005/Atom" version="2.0">
  <channel>
    <title><![CDATA[infoLibre - Inteligencia artificial]]></title>
    <link><![CDATA[https://www.infolibre.es/temas/inteligencia-artificial/]]></link>
    <description><![CDATA[infoLibre - Inteligencia artificial]]></description>
    <language><![CDATA[es]]></language>
    <copyright><![CDATA[Copyright infoLibre]]></copyright>
    <ttl>10</ttl>
    <item>
      <title><![CDATA[En pro de una soberanía digital en una Europa con derechos]]></title>
      <link><![CDATA[https://www.infolibre.es/opinion/plaza-publica/pro-soberania-digital-europa-derechos_129_2183225.html]]></link>
      <description><![CDATA[<p><img src="https://static.infolibre.es/clip/a701a55b-d0b6-4d65-9ff1-5ebf7a14ca8d_16-9-discover-aspect-ratio_default_1021881.jpg" width="513" height="288" alt="En pro de una soberanía digital en una Europa con derechos"></p><p>Una <strong>soberanía digital europea</strong> requiere dar pasos adelante en la gobernanza de la interdependencia global, pero con los criterios que Europa defiende; ello conlleva el reforzamiento de la identidad normativa como un valor inherente a las instituciones que conforman la Unión Europea (UE), y por ello, <strong>son preocupantes algunas informaciones recientes sobre la forma en que la Comisión Europea plantea simplificar las normativas digitales</strong>, con el objetivo declarado de aligerar la legislación en lo referente a la inteligencia artificial (IA), la ciberseguridad y la protección de datos.</p><p>En un intento de contrarrestar este peligroso debate en el que están instalados algunos grupos de presión, se presenta una muy buena oportunidad que va en la línea de apoyar tanto una Europa con identidad normativa y más autónoma como para avanzar en una cooperación mundial en los derechos humanos ante los avances tecnológicos: se trata del <strong>primer Encuentro Internacional por los Derechos Digitales que se celebrará los próximos 13 y 14 de mayo en Barcelona</strong>, que estará liderado por el <strong>Observatorio de los Derechos Digitales </strong>y por la <strong>Fundación Mobile World Capital</strong>, con la participación de instituciones, expertos y representantes de la sociedad civil.</p><p>Este evento puede ser un hito destacado dentro de la carta de navegación que significó la <strong>Carta de Derechos Digitales </strong>que se presentó por parte del Gobierno de España en julio de 2021, que, por cierto, es una de las primeras que se reconocieron a nivel internacional, junto a las de Portugal y de Chile; dando pie a la posterior “Declaración europea sobre los Derechos y Principios Digitales para la Década Digital”, publicada el 26 de enero de 2022. </p><p>En dicha carta se agruparon los derechos en las siguientes categorías principales: <strong>derechos de libertad, de igualdad, de participación y de conformación del espacio público, del entorno laboral y derechos digitales en entornos específicos</strong>. Es una valiosa guía que establece unas pautas de acción consensuadas y representa un compromiso político con la garantía de los derechos digitales. Pero, ya han pasado unos años y se requiere un marco jurídico aplicable y oponible por los ciudadanos en sus relaciones con las empresas y el poder público, más allá de los avances en la protección de los derechos que ya están incorporados tanto en la Ley Orgánica 3/2018 de 5 de diciembre, de protección de datos y garantía de los derechos digitales, como en el Reglamento General de Protección de Datos a nivel europeo.</p><p>Hoy en día ya existe un mayor consenso en torno a los derechos que se han visto negativamente afectados por los avances tecnológicos, al no haber sabido, podido, o querido controlarlos los poderes públicos con el objetivo de un mayor progreso social.</p><p>Diversas organizaciones, en su calidad de representantes de la sociedad civil se han ocupado de efectuar un inventario de todo ello, así como de proponer soluciones. Es decir, ha habido y sigue habiendo un contrastado activismo social en pro de anclar los derechos digitales en el contexto de la anhelada soberanía digital europea.</p><p>Por ello, se deben dar los pasos necesarios para complementar lo anterior con un activismo gubernamental, para pasar de las palabras a los hechos y, en esa línea, es necesario que entre el <strong>Consejo Asesor Internacional de Inteligencia Artificial</strong>, los representantes de la sociedad civil y las organizaciones sindicales y empresariales se desarrolle un diálogo que permita abrir líneas de trabajo en lo que se refiere al despliegue de forma inclusiva de las tecnologías más avanzadas, así como para sentar las bases de un desarrollo ético que posicione a la UE en el contexto internacional. La <strong>Agencia Española de Supervisión de la IA</strong> creada por el Gobierno es una iniciativa que va en esta dirección.</p><p>También en este contexto cabe destacar el informe denominado <strong>EuroStack</strong>, elaborado por la sociedad civil por encargo de la Comisión Europea, que presenta una visión para una Europa digitalmente soberana, construida sobre capas interconectadas de tecnologías avanzadas. Como se recuerda en este informe, “actualmente más del 80% de la infraestructura y las tecnologías digitales son importadas, lo que genera vulnerabilidades sistémicas y limita la capacidad de innovación y autosuficiencia de la región. Sus propuestas tienen un enfoque que prioriza la <strong>sostenibilidad, la inclusión y la interoperabilidad</strong>, garantizando que el futuro digital de Europa se alinee con sus valores democráticos, objetivos de equidad social y aspiraciones económicas”.</p><p>Pero más allá de Europa y con el objetivo de avanzar hacia una gobernanza global y regional de las tecnologías más avanzadas, habrá que trabajar desde la UE en dar un impulso definitivo a mecanismos multilaterales de cooperación con América Latina (potencial ventaja competitiva de Europa), con África y Asia, para compartir buenas prácticas, estándares éticos y recursos tecnológicos, en línea con las recomendaciones de la <strong>Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (UNESCO)</strong>, y de los <strong>Objetivos de Desarrollo Sostenible</strong>; y así también se podrían promover alianzas regionales y programas de cooperación para reducir las brechas de infraestructura, talento y capacidad institucional en los países de ingresos medios y bajos.</p><p>Debe, pues, adoptarse un enfoque multilateral en los esfuerzos para crear un mecanismo de gobernanza mundial de, por ejemplo, la IA, y ello implica la necesidad de diálogos políticos internacionales sobre estos temas para superar la excesiva fragmentación normativa; este objetivo también lo persiguen, entre otros, el Consejo de Europa y la UNESCO, en alineación con el cuarto punto del Plan de Acción para el continente de IA de la Comisión Europea.</p><p>Estas y otras propuestas se podrán estudiar en el encuentro internacional antes referido, y de ello se podrá dar cumplida cuenta en otro momento, dado que la importancia de este foro radica en la combinación del activismo social con el político y el gubernamental. Es una oportunidad que no se debe desaprovechar para pasar del debate a la acción, y para ello se requiere valentía y determinación.</p><p>______________________</p><p><em><strong>Antoni Farriols </strong></em><em>es analista de aplicaciones informáticas, miembro de la Asociación Pro-Derechos Humanos de España y miembro del Consejo Asesor de la Fundación Alternativas.</em></p>]]></description>
      <guid isPermaLink="false"><![CDATA[fde41d16-82cf-435b-9d14-ba0e467ccc29]]></guid>
      <pubDate><![CDATA[Thu, 30 Apr 2026 04:01:18 +0000]]></pubDate>
      <author><![CDATA[Antoni Farriols]]></author>
      <enclosure url="https://static.infolibre.es/clip/a701a55b-d0b6-4d65-9ff1-5ebf7a14ca8d_16-9-discover-aspect-ratio_default_1021881.jpg" length="14070" type="image/jpeg"/>
      <media:content url="https://static.infolibre.es/clip/a701a55b-d0b6-4d65-9ff1-5ebf7a14ca8d_16-9-discover-aspect-ratio_default_1021881.jpg" type="image/jpeg" fileSize="14070" width="513" height="288"/>
      <media:title><![CDATA[En pro de una soberanía digital en una Europa con derechos]]></media:title>
      <media:thumbnail url="https://static.infolibre.es/clip/a701a55b-d0b6-4d65-9ff1-5ebf7a14ca8d_16-9-discover-aspect-ratio_default_1021881.jpg" width="513" height="288"/>
      <media:keywords><![CDATA[Inteligencia artificial]]></media:keywords>
    </item>
    <item>
      <title><![CDATA[Las guerras cognitivas y las batallas del sí]]></title>
      <link><![CDATA[https://www.infolibre.es/opinion/columnas/la-guillotina/guerras-cognitivas-batallas-si_129_2184877.html]]></link>
      <description><![CDATA[<p><img src="https://static.infolibre.es/clip/ae317e77-1eae-466a-9251-c0408f093a52_16-9-discover-aspect-ratio_default_0.jpg" width="1200" height="675" alt="LAS GUERRAS COGNITIVAS Y LAS BATALLAS DEL SÍ"></p><p>La investidura de Guardiola en Extremadura ha dado paso a la del gobierno sellado entre PP y Vox en Aragón en vísperas del día de San Jorge. Tras los caucus de la derecha, la constitución de sendos ejecutivos autonómicos se suceden en cadena, con la premisa de dos conceptos nacidos al albur del movimiento MAGA y el <a href="https://www.infolibre.es/politica/palantir-hoja-ruta-tecnofascista-vigilancia-militarizacion-duro-servicio-occidente_1_2183100.html"  >manifiesto Palantir</a>: <strong>prioridad nacional y desregulación</strong>. Bajo la perversa deshumanización de los migrantes y la sombra de Ian Randt, se constituyen los gobiernos del futuro terror en las periferias mudas, articulados desde la actual guerra cognitiva. </p><p>Mientras el PSOE despliega la <strong>regularización de 500.000 inmigrantes</strong>, <strong>Feijóo se debilita</strong> y su partido se agrieta internamente. El reemplazo desde dentro continúa. En Andalucía, donde se impone la estabilidad como motor de la próxima mayoría absoluta de Juanma Moreno Bonilla, no quieren “líos” y desde el Madrid D.F. Isabel Díaz Ayuso levanta un telón libertario que trata de contener a la comunidad latina, esa que en estos momentos está definiendo una región cercana a los diez millones de habitantes. </p><p>“<strong>Así es como muere la libertad, con un estruendoso aplauso</strong>”, afirmaba la senadora Padme Amidala desde su escaño en el Episodio IV de <em>La Guerra de las Galaxias</em> mientras el canciller Palpatine se proclamaba emperador. “Así termina el mundo, no con un estallido sino con un quejido”, escribió T.S. Eliott en el crepuscular poema <em>'Los hombres huecos</em>', publicado en 1925. Las ficciones son un constante palimpsesto que marca el surco de la realidad.</p><p>La plataforma Palantir daba a conocer hace una semana sus principios condensados en 22 puntos donde se proclamaba la <strong>resistencia “a la tentación superficial de un pluralismo vacío y hueco</strong>”. El tecno-oligarca iliberal Peter Thiel expresaba así su voluntad de influir en el mundo pocos días después de que PP y Vox sellaran un acuerdo de gobierno en Extremadura donde se incluía, entre sus principios, la consagración de la prioridad nacional. </p><p>“Los españoles primero”, afirmaba en el debate de investidura Óscar Fernández Calle, apelando a la esperanza, invirtiendo el significado moral del discurso del presidente, entonces candidato demócrata, Barak Obama, pronunciado durante los caucus de New Hampshire hace más de 15 años. <strong>“Sí, se puede”, exhortó a los extremeños el presidente de Vox</strong> desde el atrio de la Asamblea de Mérida pocas horas antes de que Jorge Azcón y Alejandro Nolasco defendieran lo mismo desde Aragón con su pacto de gobierno sellado en vísperas del día de San Jorge.</p><p>La Casa Blanca, Palantir, Vox y las guerras cognitivas toman forma en la España de las periferias mudas desde la defensa de la desregulación y la introducción de la prioridad nacional. <strong>Son dos conceptos sencillos y contundentes</strong>. Dos significantes elásticos y vacíos con los que PP y Vox pueden hacer interpretaciones diferentes sin necesidad de llegar a la ruptura o la confrontación. Dos sintagmas, en definitiva, con gran capacidad para intervenir sobre las emociones, el nuevo/viejo campo de batalla, y alterar la percepción de la realidad de los electores y los adversarios.</p><p>Para el sacerdote y paleontólogo francés Teilhard de Chardin, el Punto Omega era el <strong>nivel máximo de complejidad y conciencia al que tiende el universo</strong>. Es un punto de convergencia espiritual donde la humanidad, tras evolucionar técnica y socialmente, se une en una conciencia colectiva (la noosfera) con lo divino. Quizá la de Peter Thiel y Palantir sea una inversión moral de ese momento, una extenuación social que comienza a presentar síntomas patológicos a través del lenguaje. Conviene recordar a Lewis Carrol:</p><p>"Cuando yo uso una palabra —insistió Humpty Dumpty con un tono de voz más bien desdeñoso— quiere decir lo que yo quiero que diga…, ni más ni menos. </p><p>—La cuestión —insistió Alicia— es si se puede hacer que las palabras signifiquen tantas cosas diferentes. </p><p>—La cuestión —zanjó Humpty Dumpty— es saber quién es el que manda…, eso es todo".</p><p>Una semana después de conocer los 22 puntos del <em>manifiesto Palantir</em> firmados por Peter Thiel, la ira ha aumentado un grado en el campo de batalla de las guerras cognitivas. <strong>Las imágenes pesan mucho más que las palabras</strong>, las metáforas hiperbólicas con que se explica la realidad resultan tan simples que la realidad misma también lo parece. En una semana, en el <em>complejo España</em> un diputado de Vox imprecaba violentamente a un vicepresidente del Congreso, un portero golpeaba a un jugador en un campo de fútbol y <strong>el presidente de Vox llamaba “mierda” al presidente del Gobierno</strong> alentando una algarada en las calles de Granada durante la precampaña andaluza. La ira simplifica las reglas. La realidad se resume en un plano, un grito, un disparo…</p><p>Son días de violencia. <strong>Un profesor ha intentado asesinar a Donald Trump</strong>. La culpa es de los periodistas y los profesores, dijo Nixon a sus asesores más cercanos tras su dimisión por el <em>Watergate</em> en 1974. Se diría que el <em>manifiesto Palantir</em> es una sublimada invitación a la ira. Sin embargo, algo falla en el algoritmo. Mientras tratamos de procesar un genocidio en Gaza y una guerra en Irán, cuando la violencia se vuelca en un punto local, el sistema sufre un apagón sin mayor explicación que la evidencia. <strong>La soberbia intelectual de Thiel conduce inevitablemente hacia la oscuridad</strong>. El intento fallido de sustituir la democracia liberal por la tecnocracia es la puerta inversa al Punto Omega. Y Vox, en Andalucía, continúa instalado en su pájara.</p><p>Abascal ha aprovechado la vulnerabilidad de Feijóo y se ha impuesto ganar los corazones y las mentes de sus votantes. Diseñado el patrón, basta con cambiar los moldes de lugar (algunos nombres y otros complementos circunstanciales) para <strong>reutilizar el mismo armamento mental una y otra vez</strong> hasta que el adversario pique el anzuelo. En Extremadura y Aragón ha sido necesario aceptar apenas un aroma del <em>manifiesto Palantir</em> para que el PP pudiera celebrar dos gobiernos. Pero, como hemos dicho anteriormente, la conclusión de los caucus no es el final del reemplazo. Vox logra escapar de su flojera y ocupar la centralidad del debate presentando incluso una moción a la <em>Corte de los Leones</em> donde Feijóo, esta vez sí, ha votado en contra de la prioridad nacional, abriendo otra nueva grieta en el PP.</p><p>El alcance de la campaña se ha extendido en todo el territorio, ya sea en Madrid o Andalucía, donde <strong>Díaz Ayuso y Moreno Bonilla se juegan dos mayorías absolutas</strong> en sus respectivas elecciones. La política diaria a cualquier nivel proporciona excusas suficientes para activar el combate, ya sea en el Congreso de los Diputados, en Sol, San Telmo o un ayuntamiento de Murcia.</p><p>Contra la guerra cognitiva y el uso indiscriminado de significantes vacíos, sólo cabe tener una <strong>posición de poder y una idea opuesta</strong>, prioridad ciudadana, sostenidos por un buen diccionario, la ley y cierta querencia por la indignación. En San Telmo y en Sol han apostado por un “no” a los pactos con Vox que aglutine a sus respectivas mayorías. De fondo, como en el “no a la guerra” de Pedro Sánchez, se encuentra el rechazo moral a un derecho inválido que <strong>vulnera el principio de igualdad ante la ley</strong>, recogido en la Constitución y la ciudadanía europea. El derecho se nutre de valores y lo que se esconde en el fondo del pacto PP-Vox es una tentación supremacista a la espera de una debilidad.</p><p>Pero un ‘no' es insuficiente para conformar una mayoría. Frente a la prioridad nacional, <strong>el ‘sí’ se sustancia en la prioridad ciudadana</strong>, donde caben las batallas propositivas que aglutinan otras mayorías. Fíjense en el alcalde Jaume Collboni y su plan de vivienda para Barcelona, en Salvador Illa y su plan de choque para reducir las listas de espera para la percepción de las ayudas a la dependencia. Lean a <strong>Unai Sordo y sus políticas de empleo</strong> y el no a la guerra convertido en <strong>sí a la paz de Pedro Sánchez</strong>, adalid de la socialdemocracia en el mundo desde Gaza hasta hoy. Las batallas del ‘sí’ son las únicas que abren camino a una nueva esperanza.</p>]]></description>
      <guid isPermaLink="false"><![CDATA[9f1eef6d-4b7c-4cbe-8f8e-f3dfb2cd9f95]]></guid>
      <pubDate><![CDATA[Tue, 28 Apr 2026 17:44:45 +0000]]></pubDate>
      <author><![CDATA[Víctor Guillot]]></author>
      <enclosure url="https://static.infolibre.es/clip/ae317e77-1eae-466a-9251-c0408f093a52_16-9-discover-aspect-ratio_default_0.jpg" length="62372" type="image/jpeg"/>
      <media:content url="https://static.infolibre.es/clip/ae317e77-1eae-466a-9251-c0408f093a52_16-9-discover-aspect-ratio_default_0.jpg" type="image/jpeg" fileSize="62372" width="1200" height="675"/>
      <media:title><![CDATA[Las guerras cognitivas y las batallas del sí]]></media:title>
      <media:thumbnail url="https://static.infolibre.es/clip/ae317e77-1eae-466a-9251-c0408f093a52_16-9-discover-aspect-ratio_default_0.jpg" width="1200" height="675"/>
      <media:keywords><![CDATA[Inteligencia artificial,PP,Vox,Alberto Núñez Feijóo,Santiago Abascal]]></media:keywords>
    </item>
    <item>
      <title><![CDATA[Así entra la IA en el Estado (la fórmula de Palantir)]]></title>
      <link><![CDATA[https://www.infolibre.es/el-cuarto-de-maquinas/entra-ia-formula-palantir_129_2184823.html]]></link>
      <description><![CDATA[<p><img src="https://static.infolibre.es/clip/0fff4fd8-aeaa-41f3-8c46-9c9c015cc65f_16-9-discover-aspect-ratio_default_0.jpg" width="1200" height="675" alt="Así entra la IA en el Estado (la fórmula de Palantir)"></p><p>Hay poderes que no necesitan ocupar el Estado, les basta con encontrar una rendija por la que colarse para colonizar sus sistemas. Esa rendija puede ser la necesidad de ordenar mejor la información, o de herramientas que permitan al propio Estado decidir qué merece prioridad y qué cuestiones pueden quedarse al final de la lista, esperando tiempos mejores. A ese tipo de poderes no les hace falta tomar el palacio, sólo necesitan <strong>hacerse con el control de la puerta</strong>, desde la que son capaces de trabajar con gran éxito para convertirse en imprescindibles.</p><p>En estos últimos días, uno de estos poderes, la megacompañía tecnológica estadounidense Palantir, <strong>ha presentado públicamente su carta de intenciones</strong> en forma de un <a href="https://x.com/PalantirTech/status/2045574398573453312" target="_blank">manifiesto </a>que no tiene desperdicio. Hay que agradecerle que no se haya dejado nada en el tintero en este <a href="https://www.infolibre.es/politica/palantir-hoja-ruta-tecnofascista-vigilancia-militarizacion-duro-servicio-occidente_1_2183100.html" target="_blank">primer programa político de una empresa tecnológica</a>: la deuda moral de la élite de Silicon Valley con la defensa de la nación; la necesidad de mano dura (en forma de software) para que las sociedades democráticas prevalezcan; la mili obligatoria; la supremacía religiosa; el <strong>desprecio al pluralismo</strong>… Ahora ya no queda duda de por dónde van sus tiros y nadie podrá decirnos que no estábamos avisados.</p><p>No estamos hablando de una empresa más de Silicon Valley, sino de una compañía que lleva años creciendo allí donde el poder público se vuelve operativo: seguridad, defensa, sanidad, policía. Hace tiempo que su negocio no consiste sólo en vender software, sino en <strong>ofrecer a los gobiernos su propia fórmula para reunir datos, procesarlos y convertirlos en decisiones</strong>. Ya trabaja con la CIA, el FBI, la Agencia de Seguridad Nacional de EEUU y su responsable de tecnología tiene despacho propio en el Pentágono. Ha extendido sus tentáculos a casi todas las formas perversas de autoridad, como <a href="https://es.wired.com/articulos/ice-y-palantir-desarrollaran-nueva-tecnologia-para-identificar-a-inmigrantes-en-ee-uu" target="_blank">el ICE de Trump</a> o el Ejército de Netanyahu. </p><p>¿Y por qué traigo hoy a Palantir al <a href="https://www.infolibre.es/el-cuarto-de-maquinas/" target="_blank">Cuarto de máquinas</a>? Porque <strong>su tecnología con inteligencia artificial ha puesto el ojo en Europa</strong> una vez que ha colonizado el corazón mismo del Estado estadounidense. La puerta de entrada ha sido el Reino Unido, donde ha firmado contratos con el Sistema Nacional de Salud británico, el Ministerio de Defensa, distintos ayuntamientos y cuerpos policiales menores. Y ahora <a href="https://www.theguardian.com/uk-news/2026/apr/22/met-police-talks-palantir-ai-tech-criminal-investigations-automate-intelligence?utm_source=chatgpt.com" target="_blank">negocia un contrato multimillonario con Scotland Yard</a> que podría darle acceso a datos sensibles de víctimas de delitos en el Reino Unido. </p><p>Palantir ha encontrado ya la rendija por la que colarse en Europa y aquí el problema no es la innovación, es quién <strong>entra en la cocina de las decisiones públicas más importantes</strong>, quién organiza la información con la que se toman las decisiones y cuál es su agenda. Porque ahora, manifiesto mediante, ya sabemos que la tiene. Londres está a un paso de<strong> externalizar una parte importante de sus decisiones estratégicas</strong> y de dejarlas en manos de una compañía fundada por el estratega político e inversor Peter Thiel, uno de los millonarios que financiaron la campaña de Trump.</p><p>Y Thiel, al igual que la empresa que ha fundado,<strong> tampoco esconde sus ideas conspiranoicas</strong>. A la vanguardia del conservadurismo estadounidense, se define como un cristiano ortodoxo y se sabe de él que vive<strong> preocupado por el anticristo y la llegada del Armagedón</strong>, que podría acelerarse por los límites impuestos a la tecnología, las agencias internacionales o el ecologismo. Lleva más de una década en el círculo cercano a Trump y es uno de los impulsores de la carrera de JD Vance. El epítome de la oligarquía tecnológica. Hizo su primera fortuna como cofundador de Paypal y desde ese momento ha sumado miles de millones de dólares a su cuenta invirtiendo en Facebook, SpaceX, OpenAI y otras compañías tecnológicas. En resumen, la mezcla perfecta de dinero, tecnología y buenas relaciones políticas. </p><p>La incursión de la élite de Silicon Valley en el corazón del Estado británico no ha pasado inadvertida en las islas. Seguramente han ayudado los focos mediáticos sobre el manifiesto con las ambiciones reales de Palantir. Esta semana, más de 200.000 personas<strong> han pedido al Gobierno británico que rompa los acuerdos ya firmados</strong>. Algo más que lógico, si se tiene en cuenta que ahora sabemos el tipo de sociedad al que aspira el gigante tecnológico. Hay cesiones que no necesitan de una ley para convertirse en realidad, y parece que cada vez son más los ciudadanos que no están dispuestos a firmar ese contrato.</p>]]></description>
      <guid isPermaLink="false"><![CDATA[96a52146-9673-403f-a684-c6961a15dc9e]]></guid>
      <pubDate><![CDATA[Tue, 28 Apr 2026 17:44:34 +0000]]></pubDate>
      <author><![CDATA[Marta Gesto Lagüela]]></author>
      <enclosure url="https://static.infolibre.es/clip/0fff4fd8-aeaa-41f3-8c46-9c9c015cc65f_16-9-discover-aspect-ratio_default_0.jpg" length="61419" type="image/jpeg"/>
      <media:content url="https://static.infolibre.es/clip/0fff4fd8-aeaa-41f3-8c46-9c9c015cc65f_16-9-discover-aspect-ratio_default_0.jpg" type="image/jpeg" fileSize="61419" width="1200" height="675"/>
      <media:title><![CDATA[Así entra la IA en el Estado (la fórmula de Palantir)]]></media:title>
      <media:thumbnail url="https://static.infolibre.es/clip/0fff4fd8-aeaa-41f3-8c46-9c9c015cc65f_16-9-discover-aspect-ratio_default_0.jpg" width="1200" height="675"/>
      <media:keywords><![CDATA[Inteligencia artificial,Servicios inteligencia,Estados Unidos,Europa,Reino Unido]]></media:keywords>
    </item>
    <item>
      <title><![CDATA[La palantir de Aragorn o cómo subvertir la IA del amo]]></title>
      <link><![CDATA[https://www.infolibre.es/opinion/ideas-propias/palantir-aragorn-subvertir-ia-amo_129_2184231.html]]></link>
      <description><![CDATA[<p><img src="https://static.infolibre.es/clip/93d5efea-e646-4fa3-85df-f90a89753f31_16-9-discover-aspect-ratio_default_0.jpg" width="1200" height="675" alt="La palantír de Aragorn o cómo subvertir la IA del amo."></p><p>Tendemos a hacernos la pregunta equivocada cuando una nueva tecnología reorganiza el poder. Sucedió cuando Gutenberg democratizó con la imprenta la palabra escrita que la Iglesia de entonces, no tan diferente a la de ahora, respondió con el <em>Index Librorum Prohibitorum</em>, una lista de libros prohibidos vigente hasta 1966 y que con el tiempo, solo podemos leer como un indicador del miedo que mueve a ciertos actores con poder cuando lo que está en juego es el monopolio sobre el conocimiento. <strong>La imprenta en sí misma nunca fue el problema</strong>, sino más bien la posibilidad de que cualquiera con dinero pudiera divulgar y leer ideas que resultaran incómodas. Hoy nos parecería absurda la propuesta de prohibir la lectura o la escritura pero, sin embargo, y con la misma contundencia, nadie parece sorprenderse cuando el resorte inquisitorio medieval nos propone de nuevo la prohibición frente a las infinitas posibilidades de las tecnologías. <strong>¿Puede ser la IA algo que ayude a que la humanidad viva mejor?</strong> Humanamente, ¿es inteligente querer que la inteligencia no humana se extienda?</p><p>La cuestión está siendo respondida en dos direcciones no necesariamente opuestas aunque una venga de la derecha y otra de la izquierda. Por un lado, nos encontramos con aquellos que proponen explotar el uso la inteligencia artificial desde arriba, que no son otros que los mismos Estados que contratan a <a href="https://www.infolibre.es/politica/palantir-hoja-ruta-tecnofascista-vigilancia-militarizacion-duro-servicio-occidente_1_2183100.html"  >Palantir</a> para <strong>construir plataformas de deportación masiva</strong>; y por otro, la de aquellos que prefieren mantenerse al margen del desarrollo de la inteligencia no humana bajo la lógica de que cualquier participación podría legitimar la lógica bélica o cualquier otro uso pernicioso que se está haciendo ya de la IA. Sobre el miedo creciente a esta tecnología y los motivos legítimos para ello, Marta Peirano en <em>El País</em> o Álvaro Soler y José Manuel Bobadilla en <em>El Salto</em> escribían recientemente centrándose en el catastrófico <strong>idilio entre el neofascismo y el capitalismo turbulento</strong>, cuya máxima expresión probablemente sea en el uso de Palantir para las guerras de nuestro tiempo. Pero, ¿podemos escapar a la idea de que IA es la herramienta tecnológica que realiza el macabro y ciberpunk planteamiento de que el siguiente lugar de colonización no es un país sino el propio género humano? Aunque el diagnóstico es correcto (el idilio está ya muy avanzado y da mucho miedo), la conclusión que se desprende—que la inteligencia artificial es el problema— no lo es, por más que resulte tentadora.</p><p>Hay un ejemplo histórico más que pertinente que no resulta cómodo pero sí preciso para analizar lo que ya hasta el propio Tolkien, creador de las palantir (unas piedras con las que el malo de <em>El señor de los anillos</em> controla todo) predijo. El problema, como sucedía con las piedras de la Tierra Media, no es la tecnología, sino en manos de quién está. IG Farben, el conglomerado químico que financió al partido nazi y fabricó el Zyklon B, estaba integrado por empresas que hoy producen medicamentos oncológicos y fertilizantes que alimentan a centenares de millones de personas. Esas empresas <strong>no atravesaron ninguna transformación química entre el Tercer Reich y la posguerra</strong>, pero sin duda lo que sí se transformó fue el entramado de regulaciones, presiones sindicales y marcos democráticos imperfectos pero existentes, que determinaron para qué se usaba esa capacidad industrial y a quién se le exigían cuentas cuando salía mal. La tecnología no se volvió ética por sí sola sino que las condiciones de su uso se volvieron, parcialmente, más disputables y por tanto, más democráticas. Dicho de otro modo, no se trata tanto de discutir qué tecnología, sino qué democracia. </p><p>La inteligencia artificial (o la inteligencia no humana, como la denominan ya autoras como Jeanette Winterson) se encuentra hoy en un momento anterior a ese punto de inflexión, y hay alguien que lo ha formulado con una claridad incómoda precisamente porque es correcta aunque se haga desde el lado incorrecto de la historia. Alex Karp, consejero delegado de Palantir, escribe en el punto cinco de su Manifiesto que la cuestión no es si se construirán armas de inteligencia artificial, sino quién las construirá y con qué propósito. ¿Por qué no es éste el argumento que está articulando la izquierda y sí la industria de defensa? <strong>¿Hemos abandonado toda posibilidad de disputar el uso de las herramientas tecnológicas para el bien común?</strong> Que lo esté usando Palantir para justificar, por ejemplo, <em>Maven Smart System</em>, el sistema letal casi automático capaz de emplearse tanto para <a href="https://www.infolibre.es/internacional/ia-elige-objetivo-guerra-iran-expone-riesgos-delegar-decisiones-militares-algoritmos_1_2165396.html"  >bombardear Irán</a> como para secuestrar presidentes, dice menos sobre la validez del razonamiento que sobre la velocidad con la que se ha abandonado el terreno a quienes tienen los contratos. Y contratos con Palantir parece que tenemos todas. También España, queridas. </p><p>Heidegger advertía que el peligro de la técnica moderna no reside en ningún artefacto concreto, sino en la estructura que nos hace percibir el mundo entero como <strong>recurso disponible para ser optimizado, calculado, gestionado</strong>. Palantir resulta inquietante precisamente porque encarna esa lógica con una coherencia casi perfecta. Toda persona, toda frontera, toda decisión, todo cuerpo reducido a dato procesable al servicio de quien dispone del capital para costear la infraestructura. Disputar esa lógica exige algo más que regular los medios mientras los fines permanecen intocables, exige, como tan bien relata Ekaitz Cancela en <em>Utopías Digitales</em>, imaginar y construir la capacidad de <strong>decidir colectivamente para qué sirve la IA</strong> que ya tenemos y las que estamos por crear, con qué salvaguardas y bajo qué formas de rendición de cuentas. ¿O es que no somos capaces de imaginar que la tecnología que es tan poderosa para la muerte pueda servir con la misma potencia para la vida?</p><p>Lo que el Estado tiene en su mano, o mejor dicho, lo que nos jugamos toda la humanidad al respecto del futuro de la IA resulta bastante más concreto que regular abstracciones, probablemente más efectivo que la supuesta prohibición del uso de la tecnología y, desde luego, igual de trascendente que las terribles consecuencias de su uso para la Guerra. <strong>Una</strong> <strong>infraestructura pública de inteligencia artificial, financiada con fondos públicos, auditada por instituciones independientes</strong>, con canales para la participación ciudadana, incluso con posibilidad de que su propiedad fuera ciudadana, haría por el acceso democrático al conocimiento algo análogo a lo que hicieron en su momento las bibliotecas públicas o la televisión estatal cuando todavía se entendía que distribuir cultura era una función política, no un nicho de mercado. Bajo esta mirada, la de hackear la tecnología para un uso democrático, las tareas relevantes dejarían de ser retirar los dispositivos porque los niños se distraen o prohibir los algoritmos porque nos manipulan —que lo hacen—, sino si la ciudadanía del futuro va a entender la <strong>capa técnica sobre la que descansa su vida pública</strong> o va a relacionarse con ella como los usuarios medievales se relacionaban con el latín, sabiendo que existe algo poderoso ahí, sin acceso a lo que dice. Enseñar a programar no sería una concesión al mercado tecnológico, sino que sería la diferencia entre producir consumidores de sistemas opacos o educar personas capaces de entender quién los diseñó, para qué y a quién beneficia que no lo sepan. <strong>Prohibir la tecnología o condenar como malignos todos sus usos</strong> son posiciones útiles a quienes se benefician de que una buena parte de la ciudadanía no tenga ni idea de lo que se hace con sus datos. Un futuro imaginable para la humanidad no pasa por la desaparición de la tecnología, sino por la democratización de la misma. </p><p>Por ello, democratizar la inteligencia artificial implica lo que siempre ha implicado democratizar una tecnología con consecuencias estructurales: acceso público a infraestructuras, modelos auditables, instituciones cuya investigación no dependa de contratos de defensa para financiarse, y ciudadanía con las <strong>herramientas conceptuales y las condiciones materiales</strong> <strong>para entender y decidir </strong>qué se hace en su nombre con sus datos. Y sobre todo, lo más relevante, podría implicar que los sistemas que hoy sirven para identificar personas migrantes en situación irregular puedan servir, bajo otras condiciones políticas, para detectar discriminación algorítmica en el acceso a la vivienda o para modelar políticas climáticas con la misma sofisticación con la que ahora se modelan objetivos militares. ¿Te imaginas una IA que sirva para luchar contra la escasez de agua, el cáncer o el problema en el acceso a la vivienda? ¿Sería posible una IA contra la corrupción?</p><p>La pregunta es, en definitiva, la misma que la humanidad ha tenido que responder con cada tecnología que ha reorganizado el poder, desde la imprenta hasta la fisión nuclear. <strong>Quién decide cómo se usa, quién puede acceder a ella y quién asume las consecuencias cuando falla</strong>. Hasta ahora, la respuesta ha sido consistentemente la misma, por lo que cambiar la respuesta exige disputar, con la misma seriedad y los mismos recursos, las condiciones bajo las que opera, no retirarse del debate y llamar a eso posición ética. Para luchar contra Palantir hay que hacer lo que Aragorn hizo con la <em>palantir</em>, lejos de destruirla o ignorarla, usarla para que el amo vea lo que nosotros queremos que vea. </p><p>_______________</p><p><em><strong>Ángela Rodríguez 'Pam' </strong></em><em>es ex secretaria de Estado de Igualdad.</em></p>]]></description>
      <guid isPermaLink="false"><![CDATA[73655142-0d06-4ee9-9bc1-81b2394afac9]]></guid>
      <pubDate><![CDATA[Mon, 27 Apr 2026 17:41:53 +0000]]></pubDate>
      <author><![CDATA[Ángela Rodríguez Pam]]></author>
      <enclosure url="https://static.infolibre.es/clip/93d5efea-e646-4fa3-85df-f90a89753f31_16-9-discover-aspect-ratio_default_0.jpg" length="68852" type="image/jpeg"/>
      <media:content url="https://static.infolibre.es/clip/93d5efea-e646-4fa3-85df-f90a89753f31_16-9-discover-aspect-ratio_default_0.jpg" type="image/jpeg" fileSize="68852" width="1200" height="675"/>
      <media:title><![CDATA[La palantir de Aragorn o cómo subvertir la IA del amo]]></media:title>
      <media:thumbnail url="https://static.infolibre.es/clip/93d5efea-e646-4fa3-85df-f90a89753f31_16-9-discover-aspect-ratio_default_0.jpg" width="1200" height="675"/>
      <media:keywords><![CDATA[Inteligencia artificial]]></media:keywords>
    </item>
    <item>
      <title><![CDATA[Trump, China y el nuevo reparto del mundo]]></title>
      <link><![CDATA[https://www.infolibre.es/el-cuarto-de-maquinas/tump-china-nuevo-reparto-mundo_1_2181207.html]]></link>
      <description><![CDATA[<p><img src="https://static.infolibre.es/clip/0fff4fd8-aeaa-41f3-8c46-9c9c015cc65f_16-9-discover-aspect-ratio_default_0.jpg" width="1200" height="675" alt="Cómo el transfuguismo se convirtió en sistema Juan Antonio gallego Capel"></p><p>Los imperios nunca han empezado con soldados, sino con ambición (y mapas). Alguien quería algo y trazaba una estrategia sobre el papel: elegía puertos, señalaba enclaves y decidía qué terrenos conquistar primero. Después llegaban los comerciantes, las banderas y <strong>el lenguaje con el que toda conquista intenta disfrazarse de civilización</strong>. La carrera de la inteligencia artificial empieza a parecerse cada vez más a eso.</p><p>La épica historia de talento con ecos de garaje, donde un puñado de ingenieros brillantes diseñaban un futuro abierto de par en par se decide hoy en las rondas de inversión y en las conversaciones a puerta cerrada, cerca del despacho oval. Y ahí es donde aparecen los nuevos cartógrafos del imperio. Son los que no compran sólo empresas prometedoras (que también), sino una posición privilegiada en el nuevo orden.</p><p>Si hay que ponerle nombre a estos nuevos cartógrafos, los que deciden dónde y en qué orden se expande el negocio en estos tiempos, debemos empezar por los <strong>grandes fondos de inversión</strong>. Uno de ellos, <strong>SoftBank</strong>, uno de los mayores inversores de tecnología del mundo, ha ido cambiando su discurso desde la retórica de la <em>disrupción</em>* hacia la muy terrenal conversación sobre <a href="https://cincodias.elpais.com/mercados-financieros/2025-12-29/digitalbridge-se-dispara-en-bolsa-tras-conocerse-el-interes-de-softbank-por-una-posible-adquisicion.html" target="_blank">infraestructura, tecnología y centros de datos</a>. En la lógica del dinero están también los gigantes tecnológicos, como <strong>OpenAI</strong>. Este último ya no actúa sólo como laboratorio o fabricante de modelos. Ahora busca capital, socios y despliegue físico para el <strong>megaproyecto Stargate</strong> (un superordenador de inteligencia artificial que desarrolla junto a Microsoft y Oracle) dentro y fuera de EEUU, como si la expansión de la IA se pareciera cada vez más a una mezcla de obra pública y política exterior.</p><p>Un cambio de paisaje importante, porque si una industria necesita esa cantidad ingente de capital, electricidad y protección política quizá sea el momento de dejar de hablar de revolución abierta que persigue el bien común. Llegará el bien común, esperemos que muchos bienes comunes, de la mano de la IA. Pero <strong>la realidad es que existe ya una industria contaminante</strong>, que necesita de poder para poder seguir alimentando la máquina.</p><p>Trump lo ha entendido a la perfección. La inteligencia artificial le ofrece una nueva frontera: grandeza americana, rivalidad con China, industria nacional, hegemonía tecnológica y un puñado de empresas convertidas en guardianes del interés patriótico. En este mercado, el poder político no es un mero observador desde el momento en el <a href="https://www.bloomberg.com/news/articles/2025-05-07/trump-derogara-restricciones-a-chips-tras-debate-sobre-las-normas-de-ia" target="_blank">que la Casa Blanca decide quién vende</a>, quién escala y quién queda varado en la aduana. </p><p>¿Y qué más ha entendido Trump? Que <strong>aquí hay dinero.</strong> Con este panorama, la mayor parte de la inversión mundial está virando de nuevo hacia Silicon Valley (una hegemonía perdida en la última década). Y con este cambio llega la gran ventaja estratégica para las empresas estadounidenses, que según un análisis de la OCDE acapararon en 2025 el 75% de todas las inversiones en IA del mundo. Este mismo febrero Anthropic anunció una recaudación de 30.000 millones de dólares y poco después OpenAI hizo pública <a href="https://cincodias.elpais.com/companias/2026-03-16/openai-negocia-una-joint-venture-con-gigantes-del-capital-privado-de-10000-millones-de-dolares-para-impulsar-el-uso-de-la-ia.html" target="_blank">una ronda de 110.000 millones</a>. </p><p>China cumple con su cometido como competidor real, pero es también una justificación magnífica. Sirve para discutir aranceles, excepciones regulatorias, controles de exportación… y <strong>nuevas alianzas entre el Estado y el capital</strong>. En nombre de la competición estratégica cualquier cesión al poder corporativo se puede vender como necesaria en términos de protección de la economía.</p><p>Ahí está el verdadero reparto del mundo. Los gobiernos que protegen la ruta hacia al futuro se saben en el bando vencedor. Y sólo hay que seguir el rastro del dinero para entender que <strong>esta es la batalla que va a ganar Trump</strong>. Quizá la que más le interese, por los beneficios que promete. La pregunta no es quién inventará el próximo modelo, la próxima aplicación de la IA que nos cambiará la vida. La pregunta es quién está comprando ya en los despachos <strong>el derecho a decidir para qué servirá y quién quedará fuera del mapa</strong>.</p><p>Así han funcionado siempre los imperios. Ahora sólo falta que nos expliquen que es por nuestro bien. </p><p><em>* (¡Qué palabra!, si me dieran un euro cada vez que un gigante tecnológico o un periodista a sueldo de la industria la emplea para tratar de epatar a un público cada vez menos permeable a su cháchara, estaría casi en posición de financiar mi propio proyecto de inteligencia artificial).</em></p>]]></description>
      <guid isPermaLink="false"><![CDATA[9473566a-5ef6-41d1-98e9-3be59b558e83]]></guid>
      <pubDate><![CDATA[Tue, 21 Apr 2026 17:55:17 +0000]]></pubDate>
      <author><![CDATA[Marta Gesto Lagüela]]></author>
      <enclosure url="https://static.infolibre.es/clip/0fff4fd8-aeaa-41f3-8c46-9c9c015cc65f_16-9-discover-aspect-ratio_default_0.jpg" length="61419" type="image/jpeg"/>
      <media:content url="https://static.infolibre.es/clip/0fff4fd8-aeaa-41f3-8c46-9c9c015cc65f_16-9-discover-aspect-ratio_default_0.jpg" type="image/jpeg" fileSize="61419" width="1200" height="675"/>
      <media:title><![CDATA[Trump, China y el nuevo reparto del mundo]]></media:title>
      <media:thumbnail url="https://static.infolibre.es/clip/0fff4fd8-aeaa-41f3-8c46-9c9c015cc65f_16-9-discover-aspect-ratio_default_0.jpg" width="1200" height="675"/>
      <media:keywords><![CDATA[Inteligencia artificial]]></media:keywords>
    </item>
    <item>
      <title><![CDATA[El desafío de Apple: sobrevivir a la era de la IA después de años viviendo de las rentas]]></title>
      <link><![CDATA[https://www.infolibre.es/medios/desafio-apple-sobrevivir-ia-despues-anos-viviendo-rentas_1_2181020.html]]></link>
      <description><![CDATA[<p><img src="https://static.infolibre.es/clip/fcef1d34-d8fa-4045-a6d7-9a809aab2fed_16-9-aspect-ratio_default_0.jpg" width="1200" height="675" alt="El desafío de Apple: sobrevivir a la era de la IA después de años viviendo de las rentas"></p><p>El hombre que convirtió a Apple en la empresa más valiosa de la historia se va con los deberes a medio cumplir. Tim Cook anunció este lunes que dejará la dirección ejecutiva del gigante tecnológico el próximo 1 de septiembre, quince años después de heredar una compañía traumatizada por la muerte de<a href="https://www.infolibre.es/cultura/vida-milagros-steve-jobs-destacado-semana_1_1093527.html" target="_blank"> Steve Jobs</a> y que él transformó en una máquina de hacer dinero sin precedentes en la historia del capitalismo. Su sucesor será John Ternus, actual vicepresidente senior de Ingeniería de Hardware, un directivo de perfil técnico que lleva 25 años en la empresa y que tendrá que solucionar los problemas que Cook dejó sin resolver. El primero y más urgente de ellos: <strong>la inteligencia artificial.</strong></p><p>La transición llega en un momento extraño para <a href="https://www.infolibre.es/temas/apple/" target="_blank">Apple</a>. La compañía ronda los cuatro billones de dólares de capitalización bursátil —lo que la convierte en la tercera empresa más valiosa del mundo, por detrás de Nvidia y de Alphabet, la matriz de Google— y el iPhone 17 ha tenido un rendimiento razonable en ventas. Pero debajo de esa fortaleza financiera hay señales de erosión. Apple, la empresa que en 2007 reinventó el teléfono móvil y en 2010 creó el mercado de las tabletas modernas, lleva años sin protagonizar <strong>un salto tecnológico </strong>de esa magnitud. Y en la carrera de la inteligencia artificial —el movimiento tectónico más importante del sector desde la aparición del smartphone— va por detrás de casi todos sus grandes rivales.</p><p>Esa posición de tercera empresa más valiosa del mundo merece un momento de atención. Cuando Cook tomó el timón en 2011 Apple ocupaba el primer lugar, con una capitalización de 337.000 millones de dólares. En agosto de 2018 cruzó el billón, en 2020 los dos billones y en 2023 los tres. Esa multiplicación por diez en doce años es el <strong>verdadero legado </strong>financiero de Cook. </p><p>Pero también revela el problema: la empresa que fue primera en cruzar esos umbrales ha cedido ahora el <a href="https://www.infolibre.es/politica/nvidia-convierte-primera-empresa-alcanzar-valoracion-5-billones-dolares_1_2089069.html" target="_blank">liderazgo</a> a Nvidia, una compañía que hace una década fabricaba tarjetas gráficas para videojuegos y que ha escalado hasta los 4,5 billones gracias a una sola apuesta: los chips que alimentan la inteligencia artificial. Alphabet también ha superado a Apple en capitalización, apoyada en haber reconvertido su imagen de gigante de internet en declive a líder en IA. <strong>Los mercados están premiando esa apuesta</strong> con una contundencia que no deja lugar a interpretaciones.</p><p>Para comprender el problema de Apple hay que entender su modelo de negocio, que es también su filosofía y, en cierto modo, su carácter. Apple construye <strong>ecosistemas cerrados: </strong>hardware, software y servicios integrados bajo un control absoluto de la compañía. Esto tiene ventajas reales —seguridad, coherencia, experiencia de usuario pulida— pero tiene un coste: dificulta la incorporación de tecnologías externas, ralentiza la adaptación y genera fricciones regulatorias crecientes. </p><p>La <a href="https://www.infolibre.es/medios/nueva-ley-europea-servicios-digitales_1_1580591.html" target="_blank">Ley de Mercados Digitales</a> europea (DMA, por sus siglas en inglés) ha forzado a la compañía a permitir tiendas de apps alternativas y a abrirse parcialmente a desarrolladores externos, recortando de paso prestaciones clave en los mercados europeos. El conflicto no ha terminado. Y en el contexto de la IA la tensión se vuelve más aguda: los modelos más potentes son los que tienen acceso a más datos, más integraciones, más contexto. Un ecosistema cerrado es, por definición, un ecosistema que dificulta todo eso. Algunos analistas del sector llevan tiempo describiendo el “jardín cerrado” de Apple como<strong> una trampa:</strong> fue su gran ventaja competitiva en la era del hardware, pero se está convirtiendo en un lastre en la era de la IA.</p><p>En junio de 2024, Apple presentó Apple Intelligence en su conferencia anual de desarrolladores: modelos de lenguaje avanzados en el iPhone, una Siri verdaderamente inteligente, funciones de IA contextual que ningún otro fabricante podía igualar. Era, en teoría, <strong>la respuesta de Apple a ChatGPT. </strong></p><p>Lo que vino después fue una sucesión de retrasos y decepciones. Las funciones más prometidas se fueron postergando trimestre tras trimestre. Y <strong>siguen sin llegar.</strong> En diciembre de 2025, la empresa reconoció que no lanzaría la Siri renovada a corto plazo y anunció una reestructuración de su equipo de IA. John Giannandrea, el directivo que llegó de Google en 2018 para liderar la estrategia de inteligencia artificial, salió de la empresa junto a otros tres altos cargos. Las acciones cayeron de forma notable.</p><p>La situación llegó a un punto tan delicado que la compañía tomó una decisión impensable hace pocos años: integrar en el iPhone un modelo externo,<strong> el Gemini de Google,</strong> para compensar las carencias de sus propios desarrollos. Apple, que durante décadas ha presumido de controlar cada elemento de sus productos, tuvo que recurrir a su principal competidor para tapar un agujero en su propuesta de valor. </p><p>El<strong> problema de fondo</strong> es que la IA está dejando de ser una función adicional del teléfono para convertirse en la interfaz principal con la que los usuarios interactúan con sus dispositivos. Si Siri no está a la altura, el iPhone empieza a parecer un hardware excelente con una capa de software anticuada.</p><p>Steve Jobs tenía una frase que resumía mejor que ninguna otra su capacidad de innovar: “La gente no sabe lo que quiere hasta que se lo enseñas”. No era arrogancia —o no solo— sino una descripción precisa de su método de trabajo. Jobs no hacía estudios de mercado para diseñar productos; creaba objetos que redefinían el marco de lo posible y dejaba que el mundo se adaptase. El iPhone no nació de una encuesta. El iPad tampoco. Esa capacidad de <strong>imaginar necesidades que el usuario todavía no sabe que tiene</strong> es exactamente lo que Apple lleva quince años sin demostrar, y es el vacío más difícil de llenar porque no se resuelve con dinero ni con ingeniería.</p><p><strong>Mark Zuckerberg,</strong> el oligarca tecnológico propietario de Meta (Facebook e Instagram) lo dijo en voz alta hace unos meses, con la arrogancia que le caracteriza y con la puntería que a veces tienen las provocaciones interesadas: Apple, dijo, lleva años “exprimiendo” su único gran producto sin atreverse a apostar por nada radicalmente nuevo. </p><p>La acusación tiene matices. La tecnológica  ha hecho avances muy relevantes en estos quince años: los chips Apple Silicon, las mejoras en cámaras y biometría, los AirPods, el Apple Watch, unos servicios que generan márgenes altísimos. Pero <strong>nada de eso es comparable,</strong> en términos de impacto, con el iPhone. Y el único intento serio de Cook de crear una categoría radicalmente nueva ha resultado ser, al menos de momento, el mayor fracaso comercial de Apple en décadas.</p><p>Apple Vision Pro se presentó en 2023 como “el primer ordenador espacial”. El precio era de 3.499 dólares, el dispositivo era técnicamente impresionante y las ventas han sido, con todos los eufemismos disponibles, muy <strong>decepcionantes</strong>: unos 45.000 unidades en el último trimestre de 2025, frente a los decenas de millones de iPhones del mismo período. </p><p>A principios de 2026 <strong>la empresa frenó la producción</strong> y redujo la publicidad. Apple lanzó el Vision Pro sin tener claro para qué servía. No era un producto de consumo masivo ni exactamente una herramienta profesional. Era una demostración de capacidad tecnológica en busca de un caso de uso convincente que nunca llegó porque carecía de la visión anticipatoria de Jobs. Al final, no ha fraguado. Cook ha construido una empresa que optimiza su rentabilidad con una precisión casi matemática, y esa eficiencia tiene un precio: la tolerancia al fracaso a corto plazo —condición indispensable para la innovación radical— es baja.</p><p>John Ternus es, sobre el papel, el antídoto natural a los problemas técnicos que arrastra Apple. A sus 50 años, es el directivo más joven del equipo ejecutivo. Ha sido responsable del iPad, los AirPods, la transición a Apple Silicon y el iPhone 17. Lleva un cuarto de siglo en la empresa y <strong>conoce sus entrañas</strong> mejor que nadie. Cook le describió en el comunicado con el lenguaje previsible de estos actos: “mente de ingeniero, alma de innovador”. </p><p>La primera parte es la que importa. Apple tiene un problema técnico —la IA— y ha elegido para resolverlo a alguien cuya credencial principal es haber construido hardware excelente. En teoría, es una <strong>apuesta por la integración:</strong> la convicción de que la ventaja de Apple no vendrá de los modelos en sí, sino de integrarlos de manera más eficiente en hardware que nadie más puede replicar. </p><p>El chip Apple Silicon es genuinamente superior para ciertos tipos de inferencia local, y el procesamiento de IA en el propio dispositivo tiene ventajas reales en<strong> privacidad y velocidad. </strong>Pero la brecha con Google, Meta y OpenAI en capacidades de los modelos es grande y no se cierra con un chip mejor.</p><p>Hay además otras herencias de la era Cook que Ternus está obligado a gestionar. Cook nunca abrazó a Donald Trump con el <a href="https://www.infolibre.es/internacional/trump-silicon-valley-giro-derecha_1_1930065.html" target="_blank">entusiasmo</a> de Elon Musk, ni se posicionó en su contra con la determinación de otros ejecutivos del sector. <strong>Eligió la equidistancia</strong> y la sostuvo con gestos calculados: donó un millón de dólares a la ceremonia de investidura, anunció una inversión de 500.000 millones en Estados Unidos y, durante una visita a la Casa Blanca, obsequió al presidente con una estatua de oro de 24 quilates con el logotipo de Apple. A cambio, logró que sus productos quedaran exentos de los aranceles más severos. </p><p>Pero la tregua fue siempre frágil: Trump llegó a <a href="https://www.infolibre.es/politica/directo-23-mayo_6_2000916.html" target="_blank">amenazar</a> con un arancel del 25% si Apple no fabricaba sus iPhones en suelo americano. La guerra arancelaria de 2025 acabó costándole a la empresa más de 2.000 millones en costes adicionales y obligó a reorganizar a marchas forzadas una cadena de suministro que llevaba décadas construyendo. La equidistancia tiene un límite, y ese límite<strong> se paga caro.</strong></p><p>Cook se marcha a los 65 años con el balance más impresionante que un CEO tecnológico puede presentar: desde 1998, la capitalización de Apple ha pasado de 4.600 millones de dólares a más de cuatro billones, un crecimiento de casi el 87.000% <strong>sin parangón en la historia empresarial moderna.</strong> Ese es su legado, pero también es su límite: construyó una empresa perfecta para el mundo de 2015, en el momento en que el mundo estaba cambiando hacia algo que esa perfección no estaba preparada para gestionar.</p><p>Ternus hereda el trono más cómodo y a la vez <strong>más incómodo</strong> de la tecnología mundial. Los recursos son inagotables. El tiempo, no tanto.</p>]]></description>
      <guid isPermaLink="false"><![CDATA[bd1528b6-0709-4090-9b97-955e9f5b1e40]]></guid>
      <pubDate><![CDATA[Tue, 21 Apr 2026 17:55:05 +0000]]></pubDate>
      <author><![CDATA[Fernando Varela]]></author>
      <enclosure url="https://static.infolibre.es/clip/fcef1d34-d8fa-4045-a6d7-9a809aab2fed_16-9-aspect-ratio_default_0.jpg" length="1173713" type="image/jpeg"/>
      <media:content url="https://static.infolibre.es/clip/fcef1d34-d8fa-4045-a6d7-9a809aab2fed_16-9-aspect-ratio_default_0.jpg" type="image/jpeg" fileSize="1173713" width="1200" height="675"/>
      <media:title><![CDATA[El desafío de Apple: sobrevivir a la era de la IA después de años viviendo de las rentas]]></media:title>
      <media:thumbnail url="https://static.infolibre.es/clip/fcef1d34-d8fa-4045-a6d7-9a809aab2fed_16-9-aspect-ratio_default_0.jpg" width="1200" height="675"/>
      <media:keywords><![CDATA[Apple,Inteligencia artificial,Donald Trump,Unión Europea,Tecnología digital]]></media:keywords>
    </item>
    <item>
      <title><![CDATA[China convierte la inteligencia artificial en bandera ideológica]]></title>
      <link><![CDATA[https://www.infolibre.es/mediapart/despliegue-inteligencia-artificial-china-decision-ideologica_1_2178612.html]]></link>
      <description><![CDATA[<p><img src="https://static.infolibre.es/clip/e1ebf3fc-d639-427a-bbc0-7265620de084_16-9-aspect-ratio_default_0.jpg" width="1200" height="675" alt="China convierte la inteligencia artificial en bandera ideológica"></p><p>El Partido Comunista Chino (PCCh) no tiene por qué temer una rebelión de los gigantes nacionales de la inteligencia artificial (IA) como la que tuvo que afrontar el Gobierno de Donald Trump al otro lado del Pacífico. En Estados Unidos, Dario Amodei, fundador de Anthropic, plantó cara al presidente. Aun a riesgo de perder un contrato de 200 millones de dólares con el Pentágono, le negó el libre acceso a su modelo de IA.</p><p>En China, <strong>el Estado-partido controla la difusión de la IA desde el inicio de su desarrollo</strong>, siguiendo la tradición de su economía planificada. La concentración de los esfuerzos financieros y políticos del PCCh en las tecnologías de vanguardia comenzó <strong>hace al menos diez años</strong>. Y, a pesar de los graves desequilibrios que afectan a la economía china, entre los que destaca, en primer lugar, <a href="https://www.mediapart.fr/journal/international/180825/l-immobilier-reste-une-epine-dans-le-pied-de-pekin" target="_blank">la crisis inmobiliaria</a> que dura ya cinco años, la prioridad sigue siendo convertir a China en líder de las industrias de vanguardia.</p><p>El 15º plan quinquenal, <a href="https://www.mediapart.fr/journal/international/070326/avec-son-15e-plan-le-parti-etat-chinois-confirme-sa-fuite-en-avant-techno-solutionniste" target="_blank">anunciado el 13 de marzo</a>, sitúa la aceleración de la política tecnológica en el núcleo de la estrategia industrial del país. La revolución tecnológica que persigue el Gobierno chino, aparentemente poco preocupado por las dificultades de la población para vivir en una sociedad eminentemente competitiva, costosa y envejecida, revela la importancia que ha adquirido la innovación en su discurso.</p><p><strong>Ya en 2015,</strong> <strong>el Consejo de Estado, el ejecutivo chino, publicó una estrategia titulada </strong><em><strong>Made in China 2025</strong></em>, que incluía las tecnologías de la información entre los sectores prioritarios, junto con las "máquinas-herramienta", los robots y los equipos aeroespaciales, aeronáuticos, marítimos y ferroviarios. Dos años más tarde, el Estado-partido publicó un plan nacional de desarrollo de la inteligencia artificial: el <em>New Generation AI Development Plan</em> (NGAIDP). En 2025, el Consejo de Estado hizo pública la estrategia "AI+", cuyo objetivo es <strong>integrar la inteligencia artificial en todos los sectores de la economía</strong>.</p><p>La apuesta del PCCh por la IA es una elección ideológica. Al igual que la industria pesada simbolizaba la vanguardia obrera en la década de 1950, cuando China era un país predominantemente rural, el Gobierno invierte hoy masivamente en el desarrollo de la IA, aunque sus aplicaciones no parecen tener ninguna repercusión en un crecimiento económico en declive.</p><p>¿Cómo entender esto? Por un lado, <strong>la carrera por la innovación en inteligencia artificial es el núcleo de la rivalidad entre el PCCh y Estados Unidos</strong>. Por otro lado, el apoyo financiero y político del PCCh a la IA ha permitido el surgimiento de una comunidad científica y de emprendedores que trabajan codo con codo con el Gobierno chino. El lugar central que el PCCh otorga a la IA en su discurso de poder les garantiza un apoyo duradero.</p><p><strong>Las grandes empresas digitales chinas fueron objeto de una represión masiva en 2021</strong>. Es cierto que los gigantes Ant, Tencent, Baidu o ByteDance no centraban su actividad en la IA, pero, como empresas dominantes en la tecnología financiera, los servicios de Internet, los motores de búsqueda y las redes sociales, respectivamente, habían acumulado una cantidad de datos espectacular. Y los datos son la materia prima de la IA.</p><p>La represión obligó a estas empresas a actuar de diversas maneras:<strong> algunas han tenido que dividir sus actividades, a otras se les ha prohibido salir a bolsa</strong> y otras, por último, se han resignado a mantener todos los datos de sus clientes en China. En aquel momento, el PCCh había justificado este endurecimiento con un discurso anticapitalista, criticando la búsqueda desenfrenada de beneficios de estas empresas que, de hecho, se encontraban en una posición monopolística, como reflejaban sus desmesuradas cuotas de mercado en sus sectores de actividad.</p><p>En la práctica,<strong> la represión fue llevada a cabo por nuevas agencias estatales</strong>, como <strong>la Administración del Ciberespacio de China</strong>, creadas bajo el mandato de Xi Jinping tanto para regular la gestión de datos como para ejercer la censura estatal. Sobre todo, fue seguida por la creación, en 2023, de una nueva agencia bajo los auspicios de la poderosa Comisión Nacional de Desarrollo y Reforma:<strong> la Administración Nacional de Datos (NDA)</strong>, responsable de su regulación.</p><p>Ya en 2021, el PCCh otorgó a los datos el estatus de "factores de producción", al igual que la tierra, el trabajo y el capital. A partir de 2023, la NDA promovió la creación de "bolsas provinciales de datos", donde estos cotizan como activos.</p><p>La publicación de un plan nacional de desarrollo como <strong>el NGAIDP</strong> <strong>no se dirigía</strong>, por otra parte, <strong>solo a las empresas, sino también a la treintena de gobiernos provinciales que conforman el territorio</strong>. Porque, desde la liberalización parcial de la economía, a principios de la década de 1980, una de las principales responsabilidades de los gobiernos locales es garantizar el desarrollo económico de su provincia.</p><p>Desde el 11º plan quinquenal del PCCh de 2006, que impuso, entre otras cosas, objetivos de protección del medio ambiente a los dirigentes locales, esos objetivos de crecimiento ya no son su único criterio de evaluación, aunque siguen teniendo un gran peso. Y alimentan enfoques locales que no coinciden en todos los aspectos con las ambiciones fijadas por el poder central, guiadas por un imperativo de seguridad nacional y la rivalidad tecnológica con Estados Unidos.</p><p><strong>Un </strong><a href="https://www.tandfonline.com/doi/full/10.1080/10670564.2024.2333492" target="_blank"><strong>estudio reciente</strong></a><strong> </strong>realizado por investigadores de Singapur <strong>revela</strong>, de hecho, <strong>prioridades diferentes en la aplicación del NGAIDP en las provincias</strong>. Tras la publicación del plan nacional, estas han publicado a su vez planes de desarrollo de la IA que presentan, a su escala, una percepción diferente de las posibilidades económicas de esta nueva tecnología.</p><p>Aunque las estrategias de IA implementadas en Pekín, Shanghái y Guangdong retoman la ambición, manifestada en el plan nacional, de influir en los equilibrios internacionales, otras provincias como Tianjin, Anhui, Hubei o Fujian se centran únicamente en determinados aspectos de la IA, en función de sus ventajas comparativas: la defensa (Shaanxi), el aprendizaje profundo (Hubei) y la IA perceptiva (Anhui).</p><p>Un tercer grupo de provincias no dedica tanto sus recursos al desarrollo teórico y fundamental de la IA como a sus aplicaciones. Así, <strong>la provincia de Gansu anuncia una iniciativa para integrar la IA en el comercio electrónico con sus vecinos de Asia Central</strong>. La provincia de Yunnan, fronteriza con Laos, Vietnam y Birmania, diseña productos que utilizan la IA específicamente para el mercado del sur de Asia.</p><p>En cierto sentido, <strong>Gansu y Yunnan responden a las aspiraciones internacionales del NGAIDP, pero de una manera totalmente diferente a Pekín</strong>. No se trata de desarrollar un modelo de IA más eficaz que el modelo estadounidense, sino de aplicar software de IA ya existente para potenciar el comercio regional con los Estados vecinos. “Lo internacional” puede tener significados muy diferentes según los actores y los discursos.</p><p>La represión contra los gigantes tecnológicos en 2021 dista mucho de haber frenado el desarrollo de los líderes chinos en tecnologías digitales. <strong>En 2025, el </strong><a href="https://www.mediapart.fr/journal/international/120225/derriere-la-sensation-deepseek-le-plan-methodique-de-pekin-pour-s-imposer-dans-l-ia" target="_blank"><strong>"</strong></a><a href="https://www.mediapart.fr/journal/international/120225/derriere-la-sensation-deepseek-le-plan-methodique-de-pekin-pour-s-imposer-dans-l-ia" target="_blank"><strong>momento Deep Seek"</strong></a><strong> reveló una </strong><em><strong>start-up</strong></em><strong>, entre muchas otras, capaz de producir modelos de IA más eficaces que las líderes estadounidenses, a un menor coste.</strong></p><p>Ese mismo año, la estrategia denominada “AI+”, destinada a incorporar la inteligencia artificial a seis sectores de la sociedad (ciencia y tecnología, desarrollo industrial, consumo, bienestar, gobernanza y cooperación internacional), ponía de manifiesto el apoyo público a una miríada de actores privados que se lanzaron a la carrera no solo por la innovación, sino también por la aplicación de la IA.</p><p>Además de la rivalidad con el capitalismo americano y el control político de los datos, esta es la tercera faceta ideológica del despliegue intensivo de la IA en China: <strong>la experimentación a gran escala con nuevas tecnologías podría cambiar profundamente la sociedad.</strong> El PCCh ha llevado a cabo una amplia campaña de promoción del uso de DeepSeek en 2025, animando no solo a los gobiernos locales, sino también a los bancos a integrarlo. En un contexto político en el que el Estado tiene acceso a todos los datos de los usuarios, un uso masivo de la IA contribuye a aumentar sus capacidades de intrusión.</p><p><strong>Una característica específica de la IA china es su uso mucho más rápido, en productos industriales y de consumo</strong>, que el que se observa en Europa y Estados Unidos. Aunque su vínculo con el crecimiento económico sigue siendo moderado, la IA en China se desarrolla con una perspectiva de aplicación directa que va mucho más allá de los grandes modelos de lenguaje.</p><p>Las vastas capacidades industriales del país ofrecen un campo de experimentación sin igual para probar la automatización con IA. <strong>No solo los vehículos eléctricos, cuya cadena de producción global domina China, están equipados con IA, sino también la robótica industrial y doméstica</strong>, mucho más integrada en la sociedad china que en los países occidentales, donde la idea de un robot humanoide sirviendo platos en un restaurante todavía da escalofríos.</p><p>Comprender el funcionamiento de la política china es cada vez más importante para entender la evolución del sistema y los juegos de poder internacionales. En un contexto de gran opacidad en la cúpula del sistema político del país, esta crónica está a cargo de dos especialistas en el Estado-partido chino, Jérôme Doyon, profesor adjunto en el Centro de Investigaciones Internacionales Ceri-Sciences Po, y Juliette Genevaz, profesora titular de Ciencias Políticas en la Universidad Jean-Moulin-Lyon 3 e investigadora en el Instituto Francés de Investigación sobre Asia Oriental. Ambos tienen como objetivo descifrar el funcionamiento y las lógicas de poder vigentes en Pekín.</p><p> </p><p><strong>Traducción de Miguel López</strong></p><p> </p>]]></description>
      <guid isPermaLink="false"><![CDATA[059afea0-8467-49ca-bf23-5328dc46f2b7]]></guid>
      <pubDate><![CDATA[Mon, 20 Apr 2026 04:00:58 +0000]]></pubDate>
      <author><![CDATA[Juliette Genevaz (Mediapart)]]></author>
      <enclosure url="https://static.infolibre.es/clip/e1ebf3fc-d639-427a-bbc0-7265620de084_16-9-aspect-ratio_default_0.jpg" length="1483077" type="image/jpeg"/>
      <media:content url="https://static.infolibre.es/clip/e1ebf3fc-d639-427a-bbc0-7265620de084_16-9-aspect-ratio_default_0.jpg" type="image/jpeg" fileSize="1483077" width="1200" height="675"/>
      <media:title><![CDATA[China convierte la inteligencia artificial en bandera ideológica]]></media:title>
      <media:thumbnail url="https://static.infolibre.es/clip/e1ebf3fc-d639-427a-bbc0-7265620de084_16-9-aspect-ratio_default_0.jpg" width="1200" height="675"/>
      <media:keywords><![CDATA[China,Inteligencia artificial]]></media:keywords>
    </item>
    <item>
      <title><![CDATA[La Comisión Europea se reúne con Anthropic para discutir los riesgos de Mythos]]></title>
      <link><![CDATA[https://www.infolibre.es/internacional/comision-europea-reune-anthropic-discutir-riesgos-mythos_1_2177876.html]]></link>
      <description><![CDATA[<p><img src="https://static.infolibre.es/clip/5c5e58f5-3c8e-44f6-8bce-0e1c997962d7_16-9-aspect-ratio_default_0.jpg" width="1200" height="675" alt="La Comisión Europea se reúne con Anthropic para discutir los riesgos de Mythos"></p><p>La<a href="https://www.infolibre.es/temas/comision-europea/" target="_blank" > Comisión Europea </a>se reunió este martes con la empresa estadounidense para abordar los <strong>posibles riesgos</strong> que pudiera causar el modelo de inteligencia artificial <a href="https://www.infolibre.es/medios/guerra-etica-claude-no-chatgpt-gemini-comparte-intereses-grok_1_2156704.html" target="_blank" >Claude Mythos Preview, </a>después de que la tecnológica suspendiese su lanzamiento por considerar que sus habilidades avanzadas pueden suponer una<strong> amenaza para la seguridad global, </strong>según informa EFE. </p><p>"Tenemos conversaciones en curso con Anthropic y confiamos en que<strong> la empresa nos dará información"</strong> sobre los peligros de la herramienta o sobre cómo poderlo probar en compañías o instituciones europeas, dijo el portavoz de tecnología del Ejecutivo comunitario, <strong>Thomas Regnier</strong>, en la rueda de prensa diaria de la institución. </p><p>Mythos permite a sus usuarios analizar en tiempo real <strong>vulnerabilidades en materia de ciberseguridad,</strong> pero durante las pruebas internas, la compañía observó que el modelo fue capaz de detectar peligros que habían permanecido ocultos durante 27 años, con una capacidad autónoma tan potente que le ha llevado a suspender su comercialización generalizada. </p><p>Por ahora, Anthropic ha lanzado el <strong>Proyecto Glasswing</strong>, un modelo de defensa en ciberseguridad a la que podrán acceder más de 40 organizaciones, entre las que figuran Amazon, Apple, Google, Microsoft, Nvidia, CrowdStrike, JPMorgan Chase, Cisco, Broadcom, Palo Alto Networks y la Linux Foundation.</p><p>El objetivo es que estos gigantes utilicen la potencia de Mythos para identificar y parchear vulnerabilidades en la infraestructura crítica de software antes de que <strong>actores malintencionados puedan explotarlas.</strong></p><p>Además, esta semana el presidente de la Reserva Federal estadounidense, <strong>Jerome Powell</strong>, y el secretario del Tesoro, <strong>Scott Bessent</strong>, se reunieron con los directores ejecutivos de los principales bancos de<a href="https://www.infolibre.es/temas/estados-unidos/" target="_blank" > Estados Unidos</a> -como Bank of America, Citigroup, Goldman Sachs, Morgan Stanley y Wells Fargo- para discutir los <strong>posibles riesgos cibernéticos</strong> que plantea Mythos. </p>]]></description>
      <guid isPermaLink="false"><![CDATA[0a04ab89-e9fe-48a4-86e4-9bdea2ef6382]]></guid>
      <pubDate><![CDATA[Wed, 15 Apr 2026 07:28:24 +0000]]></pubDate>
      <author><![CDATA[infoLibre]]></author>
      <enclosure url="https://static.infolibre.es/clip/5c5e58f5-3c8e-44f6-8bce-0e1c997962d7_16-9-aspect-ratio_default_0.jpg" length="15433496" type="image/jpeg"/>
      <media:content url="https://static.infolibre.es/clip/5c5e58f5-3c8e-44f6-8bce-0e1c997962d7_16-9-aspect-ratio_default_0.jpg" type="image/jpeg" fileSize="15433496" width="1200" height="675"/>
      <media:title><![CDATA[La Comisión Europea se reúne con Anthropic para discutir los riesgos de Mythos]]></media:title>
      <media:thumbnail url="https://static.infolibre.es/clip/5c5e58f5-3c8e-44f6-8bce-0e1c997962d7_16-9-aspect-ratio_default_0.jpg" width="1200" height="675"/>
      <media:keywords><![CDATA[Tecnología digital,Comisión Europea,Inteligencia artificial,Estados Unidos,Reserva Federal]]></media:keywords>
    </item>
    <item>
      <title><![CDATA[Quién paga la fiesta de la IA (y quién cobra la entrada)]]></title>
      <link><![CDATA[https://www.infolibre.es/el-cuarto-de-maquinas/paga-fiesta-ia-cobra_129_2177615.html]]></link>
      <description><![CDATA[<p><img src="https://static.infolibre.es/clip/0fff4fd8-aeaa-41f3-8c46-9c9c015cc65f_16-9-discover-aspect-ratio_default_0.jpg" width="1200" height="675" alt="Quién paga la fiesta de la IA (y quién la cobra)"></p><p>Las grandes transformaciones, los cambios de era, se presentan a menudo como si fueran fiestas. Suena la música, se encienden las luces sobre el escenario y alguien anuncia que nuestras vidas están a punto de cambiar para siempre. Durante un rato, un halo de promesa lo envuelve todo y nos contagia las ganas de celebrar, de bailar al son de la música, de dejarnos llevar… Pero,<strong> inevitablemente, la fiesta termina y llega el momento de pagar la cuenta</strong>.</p><p>La llegada de la inteligencia artificial al sistema de trabajo se está contando así, como una fiesta: una gran celebración de la eficiencia, la reducción de costes, la inmediatez, la rapidez, la simplificación de la vida… si me apuran, de la abundancia. <strong>El anuncio nos dice que trabajaremos menos</strong> (¡albricias!), produciremos más, decidiremos mejor y seremos más eficientes. Suena tan bien que se nos está olvidando que, <strong>como en toda fiesta bien organizada, la cuenta no desaparece, sólo tarda un poco más en llegar</strong>.</p><p>Mientras los tambores anuncian todo lo que la IA hará posible, <strong>el entusiasmo nos hace olvidar los costes</strong>. No me refiero sólo al dinero (que también). Hablo de la presión sobre el trabajo y la pérdida de autonomía. Hablo de la transferencia silenciosa de valor desde muchos actores dispersos (nosotros) hacia muy pocas posiciones de poder. Esa vieja transformación por la que una transformación se presenta como beneficio general mientras sus peajes se abonan entre todos y sus dividendos encuentran rápidamente el camino hacia los mismos bolsillos de siempre.</p><p>Si bien la cuenta todavía no está sobre la mesa, se puede intuir por dónde van los tiros. Una encuesta global recogida recientemente por la publicación tecnológica sin ánimo de lucro Rest of the World muestra que <a href="https://restofworld.org/2026/workers-ai-jobs-concerns/?utm_source=chatgpt.com" target="_blank">son muchos los trabajadores que desconfían de la capacidad de sus empresas y gobiernos para gestionar de forma justa la transición hacia la IA</a>. No parece miedo a la tecnología, se parece más a la memoria social. </p><p>Podría decirse que han visto demasiadas veces la misma película: siempre son los mismos los que pagan la adaptación (con su esfuerzo, con su tiempo o con la pérdida de sus empleos), pero hay algo revelador en esa desconfianza. La conversación sobre tecnología ha seguido un patrón muy paternalista: la sociedad no entiende bien la innovación, la mira con miedo y se resiste por desconocimiento… Quizá sea cierto que nos falta conocimiento, pero tenemos memoria. </p><p>Conviene recordar cómo funciona el mercado cuando el entusiasmo lo dirigen quienes tienen capital, infraestructura y poder: grandes anuncios de prosperidad compartida, que termina siendo selectivamente repartida. Mientras, en Bruselas, el lenguaje de la semana ha sido otro: la <a href="https://digital-strategy.ec.europa.eu/en/news/ai-continent-action-plan-delivers-major-milestones" target="_blank">Comisión Europea celebra los avances de su plan para convertir a Europa en el “continente de la IA</a>”, con énfasis en infraestructuras, datos, talento… Es lógico que las instituciones quieran acelerar, la pregunta es hacia dónde y en beneficio de quién.</p><p>En el caso que nos ocupa, las empresas que controlan los centros de datos, la distribución y la relación directa con el usuario parten de una posición incomparable. Cuanto más crezca el modelo, cuanto más se expanda, más ventaja. Y cuanta más ventaja, más les renta. Mientras,<strong> los trabajadores absorben el impacto</strong>: oficios que desaparecen, otros que han de ser reconfigurados en tiempo real, legislación contrarreloj, universidades creando programas formativos en tiempos récord, creadores que ven cómo el valor de lo que producen se diluye en plataformas ajenas, medios que pagan la producción de la información mientras otros se quedan con la atención y el negocio… La escena cambia según el sector, pero el guion se parece bastante.</p><p>No siempre hace falta que desaparezca un empleo para que empeore una vida. Basta con que la experiencia pierda valor. En los medios, la operación se ve con más claridad: las redacciones siguen asumiendo los costes más caros y menos vistosos de la información: investigar, contrastar, proteger fuentes, responder legalmente sobre lo publicado. Mientras, alrededor de nuestro trabajo crecen sistemas que prometen formas más cómodas (y baratas) para acceder al conocimiento. </p><p>Y no se trata sólo de una factura laboral o informativa. Los grandes gigantes en el negocio de la IA se resisten a facilitar información sobre el consumo de agua y energía de sus centros de datos. También ahí asoma otra verdad menos glamurosa que la propaganda: <strong>la IA no es una nube blanca y limpia, es una industria pesada con costes físicos, territoriales y ambientales muy concretos</strong>. </p><p>La legitimidad de la inteligencia artificial no dependerá sólo de lo que sea capaz de hacer, dependerá de nuestra capacidad de mirar en la dirección correcta. Si nos piden adaptarnos como si fuera una obligación moral, exijamos saber a beneficio de quién. Habrá que vigilar a quienes controlan la infraestructura, habrá que pedir responsabilidades a las empresas que privatizan los beneficios y habrá que exigir a los poderes públicos algo más que entusiasmo y estrategia: reglas, supervisión, transparencia, protección del trabajo y defensa activa del interés general.</p><p>La tecnología no reparte beneficios por sí misma. Eso lo hacen las reglas que se establecen a su alrededor. Y cuando las reglas se escriben mal, o se dejan escribir a los de siempre, <strong>la cuenta acaba sobre la mesa de todos y en la caja de unos pocos</strong>.</p>]]></description>
      <guid isPermaLink="false"><![CDATA[06d782ce-44ea-4ca9-9b44-dd8aa5178083]]></guid>
      <pubDate><![CDATA[Tue, 14 Apr 2026 18:54:25 +0000]]></pubDate>
      <author><![CDATA[Marta Gesto Lagüela]]></author>
      <enclosure url="https://static.infolibre.es/clip/0fff4fd8-aeaa-41f3-8c46-9c9c015cc65f_16-9-discover-aspect-ratio_default_0.jpg" length="61419" type="image/jpeg"/>
      <media:content url="https://static.infolibre.es/clip/0fff4fd8-aeaa-41f3-8c46-9c9c015cc65f_16-9-discover-aspect-ratio_default_0.jpg" type="image/jpeg" fileSize="61419" width="1200" height="675"/>
      <media:title><![CDATA[Quién paga la fiesta de la IA (y quién cobra la entrada)]]></media:title>
      <media:thumbnail url="https://static.infolibre.es/clip/0fff4fd8-aeaa-41f3-8c46-9c9c015cc65f_16-9-discover-aspect-ratio_default_0.jpg" width="1200" height="675"/>
      <media:keywords><![CDATA[Inteligencia artificial]]></media:keywords>
    </item>
    <item>
      <title><![CDATA[España delega en Bruselas la respuesta al modelo de IA que tiene en alerta a bancos y gobiernos de todo el mundo]]></title>
      <link><![CDATA[https://www.infolibre.es/medios/espana-delega-bruselas-respuesta-modelo-ia-alerta-bancos-gobiernos-mundo_1_2176944.html]]></link>
      <description><![CDATA[<p><img src="https://static.infolibre.es/clip/076d67eb-b080-4604-8f3a-d7ec209d9520_16-9-aspect-ratio_default_0.jpg" width="1200" height="675" alt="España delega en Bruselas la respuesta al modelo de IA que tiene en alerta a bancos y gobiernos de todo el mundo"></p><p>La semana pasada, el secretario del Tesoro de Estados Unidos convocó de urgencia a los principales bancos del país y a la Reserva Federal a una reunión de crisis para hacer frente a la vía de agua en la seguridad corporativa que supuestamente supone <strong>Claude Mythos,</strong> el modelo de inteligencia artificial de Anthropic que ha puesto en pie de guerra a reguladores, empresas de ciberseguridad y mercados financieros de medio mundo.</p><p>La <strong>alarma</strong> es generalizada en todo el mundo, porque el nuevo modelo, según la propia empresa que lo ha fabricado, es potencialmente capaz de violar la integridad de sistemas que hasta ahora se consideraban seguros y fuera del alcance de cualquier intervención no autorizada. Ese temor, sin embargo, parece no haber alcanzado a España.</p><p>“Al tratarse de un sistema de propósito general —como ocurre con otros como, por ejemplo, ChatGPT—, <strong>la competencia es de la Comisión Europea”,</strong> se limitó a responder la <a href="https://www.infolibre.es/politica/ignasi-belda-director-aesia-ia-convertir-sociedad-justa-democratica_1_2080912.html" target="_blank">Agencia Española de Supervisión de la Inteligencia Artificial </a>(Aesia) cuando <strong>infoLibre</strong> le preguntó qué medidas había adoptado o pensaba adoptar para hacer frente al riesgo que representa Mythos.</p><p>La primera reacción de la Aesia, dependiente del Ministerio para la Transformación Digital, que dirige Óscar López, <strong>fue lavarse las manos</strong> ante el problema —un modelo capaz de encontrar vulnerabilidades de décadas de antigüedad en infraestructuras críticas— y dejar cualquier decisión en manos de Bruselas.</p><p>La agencia, sin embargo, matizó después que, en su condición de miembro del grupo director del GPAI —l grupo donde se aterrizan las obligaciones del reglamento de IA convirtiéndolo en líneas de actuación concretas para los proveedores de modelos de propósito general—, <strong>ha trasladado a la Comisión Europea su interés en conocer la información de que dispone Bruselas sobre Mythos.</strong>  El GPAI no tiene capacidad legislativa, pero sí es el foro donde se coordinan posiciones entre potencias antes de que las normas se escriban.</p><p>¿Y qué dice la UE? “Actualmente <strong>estamos evaluando las posibles implicaciones</strong> a la luz de las políticas y la legislación de la UE”, dijo con cierta vaguedad el portavoz de la Comisión Europea, Thomas Regnier, en un comunicado enviado por correo electrónico. “También estamos monitoreando las implicaciones de seguridad de esta tecnología en rápida evolución, tanto para aumentar nuestras defensas cibernéticas como para posibles usos indebidos”.</p><p>Las competencias de Bruselas no han impedido que, en Alemania, la Oficina Federal de Seguridad de la Información (BSI) se hiciese eco del problema, admitiendo que Mythos va a tener<strong> implicaciones significativas.</strong> “Estamos en contacto con el fabricante Anthropic con respecto a Claude Mythos”, anunció la presidenta del BSI, Claudia Plattner. </p><p>Aunque su autoridad aún no había podido probar la nueva herramienta, explicó Plattner, sí había podido obtener información sobre la forma en que funciona hablando directamente con los desarrolladores del modelo. Plattner señaló que el BSI <strong>se está tomando muy en serio los anuncios de Anthropic</strong> porque cree que tendrán consecuencias “en el tratamiento de las vulnerabilidades de seguridad”. Lo que, “a su vez, plantea cuestiones de seguridad y soberanía nacionales y europeas”, precisó.</p><p>Mucho más concreta y práctica ha sido la reacción en el Reino Unido. Los reguladores financieros británicos están en conversaciones urgentes con bancos y funcionarios de ciberseguridad para <strong>examinar los riesgos.</strong> </p><p>Según un informe del <em>Financial Times,</em> las autoridades financieras clave del Reino Unido, incluidos el Banco de Inglaterra, la Autoridad de Conducta Financiera y el Tesoro, están en conversaciones con el Centro Nacional de Seguridad Cibernética para verificar si el último modelo de IA de <a href="https://www.infolibre.es/medios/guerra-etica-claude-no-chatgpt-gemini-comparte-intereses-grok_1_2156704.html" target="_blank">Anthropic</a> podría representar alguna amenaza para los sistemas de tecnologías de la información utilizados en las finanzas. Los reguladores informarán a los bancos, aseguradoras y bolsas en las próximas dos semanas sobre<strong> los riesgos de ciberseguridad</strong> vinculados a Claude Mythos.</p><p>Lo primero que hay que entender sobre Claude Mythos —conocido internamente en Anthropic como Capybara— es que <strong>todavía no existe</strong> como producto comercial. Su potencial destructivo es tal que Anthropic ha decidido no lanzarlo al público. Es la primera vez que la compañía restringe así el acceso a uno de sus modelos, y la razón que da no deja lugar a dudas: el sistema es demasiado peligroso para soltarlo sin más.</p><p>Durante las pruebas internas, Mythos encontró <strong>miles de </strong><a href="https://www.infolibre.es/politica/ciberataques-vuelven-crecer-afectaron-22-000-empresas-espana-2023_1_1874773.html" target="_blank"><strong>vulnerabilidades</strong></a> en los principales navegadores y sistemas operativos del mundo, incluyendo fallos que llevaban décadas sin ser detectados. Una brecha de 27 años en OpenBSD, un sistema diseñado específicamente para ser difícil de atacar. Otra de 17 años en FreeBSD que permitía tomar el control completo de una máquina sin contraseña. Una más de 16 años en FFmpeg, la librería que usan casi todas las aplicaciones de vídeo del planeta. El investigador de la compañía Nicholas Carlini lo sintetizó con una frase que ya circula por los foros de seguridad informática: “Ha encontrado más vulnerabilidades en dos semanas que yo en toda mi vida”.</p><p>El <strong>impacto en los mercados</strong> fue inmediato. El índice de software y servicios del S&P 500 cayó un 1,6% el viernes de la semana del anuncio y acumula un descenso del 26% en lo que va de año. CrowdStrike perdió un 4%. Palo Alto Networks, un 7%. Datadog, un 3%. Empresas de crédito privado con exposición al sector del software también sufrieron.</p><p>El <em>Financial Times </em>fue el primero en reportar que Scott Bessent, secretario del Tesoro de EEUU, había convocado a los consejeros delegados de Goldman Sachs, Bank of America, Citigroup, Morgan Stanley y Wells Fargo para hablar de los riesgos cibernéticos que plantea el modelo. Jerome Powell, presidente de la Reserva Federal, también estuvo en la reunión. </p><p>Ante la imposibilidad de publicar el modelo sin haber controlado antes sus consecuencias imprevisibles, Anthropic ha optado por una estrategia singular: usar a Mythos para cerrar las mismas vulnerabilidades que podría abrir. Ha puesto en marcha el llamado Proyecto Glasswing, <strong>una coalición cerrada de doce empresas</strong> —Apple, Microsoft, Google, Amazon Web Services, Nvidia, Cisco, CrowdStrike, Palo Alto Networks, JPMorgan Chase, Broadcom y la Linux Foundation— que tienen acceso controlado al modelo para usarlo en sus propios sistemas y parchear los fallos antes de que otros los descubran.</p><p>Lo ocurrido revela una carrera contra el tiempo difícil de ganar. Anthropic da por hecho que otros actores —sus competidores, Estados con capacidades ofensivas, grupos criminales— desarrollarán pronto modelos con capacidades similares. La pregunta no es si eso ocurrirá, sino si la infraestructura digital global<strong> estará parcheada</strong> cuando suceda.</p><p>Para facilitar el proceso, la compañía ha puesto sobre la mesa <strong>100 millones de dólares</strong> en créditos de uso para sus socios y cuatro millones adicionales en donaciones a organizaciones de seguridad de código abierto.</p><p>El Proyecto Glasswing incluye también<strong> infraestructuras críticas </strong>más allá del software comercial: sistemas de agua, plantas de energía, redes de transporte. Vulnerabilidades que, de ser explotadas, tendrían consecuencias en el mundo físico.</p><p>Es verdad que hay voces que apuntan a que todo esto es, al menos en parte, una operación de <strong>relaciones públicas. </strong>El analista Gary Marcus, crítico habitual con los grandes anuncios en relación con a la IA, asegura que en las pruebas de explotación del navegador Firefox se desactivó el <em>sandboxing</em>, el mecanismo de aislamiento que en condiciones reales habría dificultado enormemente la tarea del modelo.</p><p>También sostiene que modelos de código abierto más pequeños y económicos ya son capaces de realizar análisis de vulnerabilidades similares. La referencia implícita al precedente de GPT-2 —que OpenAI retuvo en 2019 por ser “demasiado peligroso” y que luego resultó ser bastante <strong>menos apocalíptico de lo anunciado—</strong> flota en el ambiente. El propio Dario Amodei era entonces el responsable de investigación de OpenAI.</p><p>Pero hay una diferencia con aquel episodio que los propios escépticos reconocen: las vulnerabilidades de software actuales <strong>son verificables. </strong>Existen o no existen. Las empresas del Proyecto Glasswing, hasta ahora, no han desmentido nada de lo que Anthropic afirma.</p><p>El <a href="https://www.infolibre.es/economia/bruselas-quiere-retrasar-partes-ley-inteligencia-artificial_1_2094227.html" target="_blank">Reglamento Europeo de Inteligencia Artificial,</a> aprobado en 2024 y en proceso de aplicación progresiva, clasifica los modelos de IA de propósito general según su potencia de cómputo. Los que superen un determinado umbral en su entrenamiento <strong>se consideran de “riesgo sistémico” </strong>y están sujetos a obligaciones adicionales: evaluaciones de adversarios, notificación de incidentes graves, medidas de ciberseguridad. Mythos, si los datos de Anthropic son fieles, encajaría en esa categoría.</p><p>Es verdad que la supervisión de estos modelos corresponde a la Comisión Europea, no a las agencias nacionales. La AI Office —la oficina creada en Bruselas para gestionar precisamente estos casos— tiene competencia sobre los grandes modelos de propósito general. Las agencias nacionales como la Aesia son, en este esquema, <strong>auxiliares</strong>: pueden participar en investigaciones conjuntas, recibir información y colaborar. Pero la palanca regulatoria no está en Madrid.</p><p>En todo caso, la tranquilidad institucional española es muy llamativa, sobre todo en comparación con otros países. El reglamento de IA de la UE es, en muchos aspectos, más exigente que cualquier norma equivalente en Estados Unidos. Pero hay una brecha entre tener una regulación y activarla cuando algo pasa. Mythos es, en este sentido, <strong>el primer test real </strong>de si el sistema europeo de supervisión de la IA es capaz de responder a tiempo a una crisis concreta —o si funciona mejor como marco normativo de largo plazo que como mecanismo de respuesta inmediata—.</p><p><strong>España tiene millones de dispositivos conectados</strong> a sistemas operativos o plataformas de software que, según Anthropic, contienen vulnerabilidades que Mythos ha identificado. Tiene infraestructura crítica —energía, agua, transporte, banca— tan expuesta como la de cualquier otro país desarrollado. Tiene empresas que compran servicios en la nube a Amazon, Google y Microsoft, tres de los doce socios de Glasswing.</p><p>Ni el ministerio ni la Aesia respondieron a otras preguntas de <strong>infoLibre</strong>. Así que no es posible saber si las infraestructuras críticas españolas están siendo contempladas dentro del paraguas preventivo del Proyecto Glasswing o si hay algún canal abierto para evaluar los riesgos específicos para el tejido digital español.</p>]]></description>
      <guid isPermaLink="false"><![CDATA[382de355-9470-4075-b2fb-fc9c7608c424]]></guid>
      <pubDate><![CDATA[Mon, 13 Apr 2026 19:03:57 +0000]]></pubDate>
      <author><![CDATA[Fernando Varela]]></author>
      <enclosure url="https://static.infolibre.es/clip/076d67eb-b080-4604-8f3a-d7ec209d9520_16-9-aspect-ratio_default_0.jpg" length="1156764" type="image/jpeg"/>
      <media:content url="https://static.infolibre.es/clip/076d67eb-b080-4604-8f3a-d7ec209d9520_16-9-aspect-ratio_default_0.jpg" type="image/jpeg" fileSize="1156764" width="1200" height="675"/>
      <media:title><![CDATA[España delega en Bruselas la respuesta al modelo de IA que tiene en alerta a bancos y gobiernos de todo el mundo]]></media:title>
      <media:thumbnail url="https://static.infolibre.es/clip/076d67eb-b080-4604-8f3a-d7ec209d9520_16-9-aspect-ratio_default_0.jpg" width="1200" height="675"/>
      <media:keywords><![CDATA[Inteligencia artificial,Bancos,Empresas]]></media:keywords>
    </item>
    <item>
      <title><![CDATA[Del chatbot al escaño: la inteligencia artificial ya es una parte principal de las candidaturas electorales]]></title>
      <link><![CDATA[https://www.infolibre.es/politica/chatbot-escano-inteligencia-artificial-parte-candidaturas_1_2172219.html]]></link>
      <description><![CDATA[<p><img src="https://static.infolibre.es/clip/c3252633-c418-406c-ac32-3ebb523aa352_16-9-aspect-ratio_default_0.jpg" width="1200" height="675" alt="Del chatbot al escaño: la inteligencia artificial ya es una parte principal de las candidaturas electorales"></p><p>La inteligencia artificial ha crecido de manera exponencial en los últimos años. Ahora ya no es sólo la herramienta que ayuda a resumir textos, a realizar investigaciones o a preparar discursos políticos. Ahora, <strong>la IA ya es un actor político más</strong>. En 2026, nos acercamos, cada día más, a ese mundo distópico que Michael Crichton narraba en <em>Presa</em> o a esa novela de Emma Mieko Candon, <em>The Archive Undying</em>, donde las IA eran dioses caídos.</p><p>La inteligencia artificial se ha convertido en candidata electoral o en portavoz y cerebro de campaña en países como Japón, Colombia, Dinamarca o Reino Unido, cuatro territorios en los que <strong>la IA ya es parte del entramado político</strong>. </p><p>La novedad no es sólo tecnológica. Es, sobre todo, moral. Porque plantea preguntas incómodas: ¿puede una inteligencia artificial representar a los votantes? ¿Puede un partido articulado en torno a un chatbot aspirar a algo? <strong>¿Qué pasa con los bots y las redes sociales, remarán a favor del voto a las IA?</strong></p><p>El politólogo Andreas Jungherr en <a href="https://journals.sagepub.com/doi/10.1177/20563051231186353"  ><em>Artificial Intelligence and Democracy: A Conceptual Framework</em></a>, realiza un amplio estudio de cómo la IA ya está impactando en “las condiciones del autogobierno, la igualdad política, las elecciones y la competencia entre sistemas democráticos y autocráticos”.</p><p>En Japón, <a href="https://team-mir.ai/"  >Team Mirai</a> es probablemente el ejemplo más completo de “tecnopolítica” convertida en realidad. Fundado por perfiles ligados al software y la ingeniería, el partido dio el salto a la política nacional con un mensaje que mezcló reformas concretas y una defensa explícita de la IA como motor de modernización del Estado. En las elecciones de febrero a la Cámara Baja nipona <strong>obtuvo 11 escaños</strong>, con una base de 2.600 afiliados, consiguió el voto de tres millones de personas, un 7% de los votantes del país.</p><p>Ideológicamente, se sitúan en un centro‑derecha tecnocrático. Bruce Schneier, que ha estudiado el caso en profundidad, explica en uno de sus <a href="https://www.schneier.com/essays/archives/2026/03/japans-team-mirai-uses-tech-to-bolster-democracy-not-undermine-it.html"  >ensayos</a> que Team Mirai “se presentó a las elecciones sin alinearse con los ejes tradicionales de izquierda y derecha” y que su eje principal es el futuro frente al inmovilismo. “<strong>La tecnología te hace la vida más fácil</strong>”, es uno de sus lemas de campaña. </p><p>El propio análisis de Schneier destaca que el partido mantuvo una posición “contraria” en el gran tema de la campaña: en vez de prometer rebajar el impuesto al consumo, defendió mantenerlo y <strong>compensar a las familias trabajadoras con créditos fiscales</strong> y menores cotizaciones sociales.</p><p>No son anti‑sistema, como pudiera ser el <strong>Partido Pirata</strong> de Islandia, sino una fuerza que propone redistribución selectiva y ajustes demográficos. </p><p>Mirai apuesta por la inversión en sectores tecnológicos y el uso intensivo de aplicaciones propias y estatales, como la app Gikai, que utiliza IA para resumir proyectos de ley y recabar opiniones ciudadanas. Schneier lo resume con una frase que define bien su proyecto: “<strong>Team Mirai se concibe como un '</strong><em><strong>utility party</strong></em><strong>',</strong> una especie de infraestructura básica para la democracia japonesa, más que un partido clásico organizado en torno a una identidad ideológica cerrada”.</p><p>Por otro lado, Dinamarca encarna la versión más radical del algoritmo: el <strong>Partido Sintético</strong>.</p><p>Fundado en 2022 por el colectivo artístico <em>Computer Lars</em> y la fundación <em>MindFuture</em>, colocó un chatbot en el centro de su identidad. <a href="https://www.google.com/url?sa=t&source=web&rct=j&opi=89978449&url=https://www.vice.com/en/article/this-danish-political-party-is-led-by-an-ai/"  ><em>Vice</em></a> aseguró que “el chatbot de IA <em>Leader Lars</em>, está programado basándose en las políticas de partidos daneses marginales desde 1970”.</p><p>Este chatbot fue entrenado con décadas de programas electorales para llegar a proponer políticas a partir de las preferencias acumuladas y para dialogar con los votantes. El partido pretendía <strong>representar a quienes no votan</strong> y explorar formas de “democracia más‑que‑humana”. Entre sus propuestas estaban una renta mínima, la incorporación explícita de la IA a la agenda de derechos humanos y la alineación con objetivos de desarrollo sostenible centrados en la convivencia entre humanos y máquinas.</p><p>Partidarios de la redistribución, inclusión y una integración ética y regulada de la IA en la sociedad, el Partido Sintético nunca llegó a presentarse porque la ley electoral danesa prohíbe partidos sin base jurídica personal. </p><p>Si la tecnología y la inteligencia artificial son la base de estos partidos, <strong>Colombia y Reino Unido</strong> han ido más allá y propusieron, directamente dos candidatos creados por IA: AI Steve y Gaitana IA.</p><p>El caso británico fue el más mediático. AI Steve se presentó como el primer “candidato de IA” en las generales de 2024 en el Reino Unido, pero en realidad era un avatar asociado al empresario <strong>Steve Endacott</strong>, que se presentaba en Brighton Pavilion. Si recuerdan el metaverso, AI Steve era la representación digital de Endacott.</p><p>AI Steve “invitaba a los votantes a interactuar con un chatbot que recogía opiniones y las transformaba en propuestas y luego un grupo de “validadores” (humanos) tendría la tarea de traducir ese <em>feedback</em> en decisiones concretas”, recuerda el periodista Tomás Estevez que siguió el caso de este candidato híbrido. </p><p>“El programa <strong>incluía recortes del 50% en tasas universitarias</strong> aplicando tarifas más altas a estudiantes extranjeros, construcción de vivienda asequible en suelos industriales”, recuerda Estevez que colocaba al avatar de Endacott en el espectro del centro‑derecha liberal británico. </p><p>AI Steve no consiguió el escaño, pero “sentó un precedente: un candidato humano‑máquina que luego hemos visto en otros lugares”, dice Estevez que cita otro caso de este póker de IA en elecciones: Gaitana.</p><p>El caso colombiano es el último. Gaitana IA apareció en las papeletas de las elecciones legislativas de 2026, en la <strong>circunscripción especial indígena</strong>, presentada como una candidata creada con inteligencia artificial. Detrás del avatar, sin embargo, había una arquitectura legal y política híbrida: dos personas —entre ellas el activista Carlos Redondo— se registraron como candidatos reales, mientras el bot azul actuaba como rostro digital del proyecto.</p><p>El programa, según detalla <a href="https://es.wired.com/articulos/gaitana-candidata-creada-con-ia-que-competira-en-elecciones-de-colombia"  ><em>Wired</em></a> en su edición en español, se centraba en inclusión indígena y soberanía digital: defensa del territorio y de los derechos colectivos, y la reivindicación de que las comunidades originarias participen en la conversación global sobre tecnología, desde la banca hasta la educación, usando IA y otras herramientas emergentes.</p><p>Gaitana no obtuvo escaño, pero centró el debate en <strong>normalizar el uso de un avatar para redes</strong> y un candidato de carne y hueso para relacionarse.</p><p>La expansión de estas experiencias no ocurre en el vacío. International IDEA ha señalado que “la IA ya está entrando en la maquinaria cotidiana de las elecciones, incluyendo la administración, el análisis de datos, la provisión de información y la supervisión”, y advierte, al igual que José Manuel Mateu de Ros, CEO de la consultora Zertia, para <strong>infoLibre</strong>, que “muchas autoridades <strong>reconocen tener baja alfabetización en IA</strong> mientras ya la están usando, lo que constituye un grave problema de seguridad”. </p><p>El centro de investigación Brookings, en un artículo sobre el <a href="https://www.brookings.edu/projects/election-24-issues-at-stake/elections-democracy/"  >“super‑año” electoral</a> global de 2024, recuerda que el potencial para <a href="https://www.nature.com/articles/s41586-025-09771-9"  >alterar la información</a> que reciben los votantes es considerable. Ese diagnóstico encaja con multitud de estudios sobre el uso malicioso de la IA y de bots automatizados en campañas recientes, “para producir vídeos, imágenes, textos, falsas webs… <strong>Un problema de difícil solución</strong>”, dice Mateu que ve que este problema irá en aumento en los próximos años.</p><p>El antecedente más citado sigue siendo <a href="https://www.infolibre.es/medios/ano-negro-facebook-dieciseis-polemicas_1_1165387.html"  ><em>Cambridge Analytica</em></a>, la firma que, en 2016, accedió sin consentimiento a los datos de decenas de millones de usuarios de Facebook para dirigirles anuncios políticos en la campaña de <strong>Donald Trump y en el referéndum del Brexit</strong>. Aunque entonces no se hablaba todavía de IA generativa, la lógica era similar: usar grandes volúmenes de datos para segmentar con precisión y explotar vulnerabilidades emocionales en el electorado.</p><p><a href="https://www.google.com/url?sa=t&source=web&rct=j&opi=89978449&url=https://www.idea.int/&ved=2ahUKEwjM9smb3tSTAxU0-QIHHZUyDoEQFnoECAwQAQ&usg=AOvVaw2AXIa6J0Fcau2QGeXcJfTZ"  >International IDEA</a> plantea que la adopción de IA en elecciones debe ir <strong>acompañada de “sólidos marcos de gobernanza</strong>” y propone una base democrática de cinco pilares: alfabetización en IA, ética y derechos humanos, moderación de contenidos, regulación y uso de IA para mejorar la gestión electoral. “Sin estos elementos la IA corre el riesgo de socavar la integridad electoral en lugar de reforzarla”, concluye Mateu.</p>]]></description>
      <guid isPermaLink="false"><![CDATA[e9aa8925-7540-415b-ab94-92518e025a4c]]></guid>
      <pubDate><![CDATA[Sat, 11 Apr 2026 04:00:58 +0000]]></pubDate>
      <author><![CDATA[Iván Muñoz]]></author>
      <enclosure url="https://static.infolibre.es/clip/c3252633-c418-406c-ac32-3ebb523aa352_16-9-aspect-ratio_default_0.jpg" length="92658" type="image/jpeg"/>
      <media:content url="https://static.infolibre.es/clip/c3252633-c418-406c-ac32-3ebb523aa352_16-9-aspect-ratio_default_0.jpg" type="image/jpeg" fileSize="92658" width="1200" height="675"/>
      <media:title><![CDATA[Del chatbot al escaño: la inteligencia artificial ya es una parte principal de las candidaturas electorales]]></media:title>
      <media:thumbnail url="https://static.infolibre.es/clip/c3252633-c418-406c-ac32-3ebb523aa352_16-9-aspect-ratio_default_0.jpg" width="1200" height="675"/>
      <media:keywords><![CDATA[Elecciones,Inteligencia artificial,Tecnología digital]]></media:keywords>
    </item>
    <item>
      <title><![CDATA[Los salvadores que venían a rescatar el periodismo… y terminaron copiándolo]]></title>
      <link><![CDATA[https://www.infolibre.es/el-cuarto-de-maquinas/salvadores-venian-rescatar-periodismo-terminaron-copiandolo_129_2173808.html]]></link>
      <description><![CDATA[<p><img src="https://static.infolibre.es/clip/0fff4fd8-aeaa-41f3-8c46-9c9c015cc65f_16-9-discover-aspect-ratio_default_0.jpg" width="1200" height="675" alt="Los salvadores que venían a rescatar el periodismo… y terminaron copiándolo"></p><p>Hay una escena que comienza a repetirse en este tiempo. Quizá les suene. Una empresa tecnológica entra en la conversación con un anuncio grandilocuente en forma de promesa grande y luminosa, casi moral: viene a arreglar un problema que los demás no han sabido (no hemos sabido) resolver.</p><p>Llegan con esa <strong>solemnidad mesiánica</strong> que tanto gusta en Silicon Valley y sus sucursales ideológicas: hablan de eficiencia, de innovación, de acceso, de soluciones. Donde otros ven un problema complejo, ellas ven oportunidades. Donde el periodismo reclama recursos, tiempo, independencia y oficio, ellas prometen atajos. ¿Les suena?</p><p>Y después de los fuegos artificiales pasa algo más viejo que el hilo negro: apartas la cortina del discurso y detrás <strong>no hay solución, hay extracción</strong>.</p><p>¿Y por qué nos tienden una y otra vez la misma trampa? Porque es casi imposible que el trabajo de desmontar esas promesas acapare la notoriedad que sí se consigue con sus anuncios. A no ser que el propio periodismo ponga pie en pared, que es exactamente lo que acaba de ocurrir con el caso de <strong>Nota</strong>, una empresa estadounidense que, usando Inteligencia Artificial, se presentaba como la solución definitiva a los llamados “<em>news deserts</em>”, esos territorios donde el cierre de medios locales ha dejado a la ciudadanía más desinformada y más sola. </p><p>Para esas comunidades desatendidas informativamente, la empresa prometía generar artículos a partir de notas de prensa e información institucional, con el apoyo de herramientas de IA. Lanzó once webs disfrazándolas de buenas causas: cobertura bilingüe, herramientas cívicas… y <strong>acabó cerrándolas cuando el periodismo de verdad hizo su trabajo</strong>. Sendas investigaciones del <a href="https://www.axios.com/local/richmond/2026/04/03/nota-ai-news-sites-shut-down-plagiarism" target="_blank">medio local Axios Richmond</a> y el <a href="https://www.poynter.org/ethics-trust/2026/nota-news-local-outlets-ai-plagiarism/" target="_blank">Instituto Poynter</a> descubrieron decenas de citas, frases y fotografías plagiadas de casi una treintena de medios locales y del trabajo de medio centenar de periodistas. Al final, Nota se convirtió en ejemplo de la paradoja perfecta (y terrible): se proclamó reparadora del vacío informativo y lo rellenó, en parte, con el trabajo de los que realmente estaban informando.</p><p><strong>Lo inquietante no es el plagio, sino</strong> <strong>el marco mental que lo hace posible</strong>: la idea de que el periodismo es un residuo aprovechable, un yacimiento que expoliar, una cantera de textos, imágenes y preguntas ajenas que alguien puede trocear, empaquetar y redistribuir con una capa de tecnología. Como si la información fuera una materia prima gratuita y no el resultado de llamadas, horas de documentación y archivo, contrastes incómodos, protección de fuentes, conocimiento del terreno y ética de la responsabilidad. </p><p>El problema no se limita a este caso. El sector tecnológico lleva años ensayando la misma coreografía: primero aparece un relato de una solución innovadora, después llega el uso de materia prima ajena para alimentar la máquina. Y, en muy pocos casos, las denuncias. Nada nuevo bajo el sol. Ocurrió con Perplexity, que se presentó como la fórmula definitiva para acceder al conocimiento de forma limpia, útil e inteligente. Poco después, <em>Forbes </em>la acusó de <a href="https://www.forbes.com/sites/randalllane/2024/06/11/why-perplexitys-cynical-theft-represents-everything-that-could-go-wrong-with-ai/" target="_blank">apropiarse de texto e imágenes de un reportaje de investigación</a> exclusivo y la revista <a href="https://www.wired.com/story/perplexity-is-a-bullshit-machine/" target="_blank"><em>WIRED</em></a><a href="https://www.wired.com/story/perplexity-is-a-bullshit-machine/" target="_blank"> documentó prácticas de scraping</a> (rastreo de información de forma encubierta). Más tarde llegaron los programas de reparto de ingresos y las palabras de aprecio hacia los editores de medios de comunicación. <strong>Primero, la apropiación. Después, la alianza</strong>.</p><p>La historia se repite con variantes. OpenAI ha firmado acuerdos con multitud de grupos mediáticos, como la agencia de noticias Associated Press, la editora de medios Axel Springer o periódicos como <a href="https://elpais.com/comunicacion/2024-03-13/open-ia-anuncia-un-acuerdo-con-prisa-media-y-le-monde.html" target="_blank"><em>Le Monde</em></a><a href="https://elpais.com/comunicacion/2024-03-13/open-ia-anuncia-un-acuerdo-con-prisa-media-y-le-monde.html" target="_blank"> o</a><a href="https://elpais.com/comunicacion/2024-03-13/open-ia-anuncia-un-acuerdo-con-prisa-media-y-le-monde.html" target="_blank"><em> El País</em></a>, que se presentan como colaboraciones para explorar los usos beneficiosos de la inteligencia artificial y fortalecer el papel del periodismo en el nuevo entorno. La pregunta ética es pertinente: ¿de verdad podemos llamar ‘alianza con el periodismo’ a un ecosistema que primero se alimenta de la producción periodística y después decide con quién firma y a quién deja fuera?</p><p>Esta dinámica tiene todavía una versión más refinada del mismo impulso de vaciar el periodismo mientras se habla en su nombre, que no pasa por copiar frases, fotografías o párrafos, sino por <strong>emular la función económica del periodismo</strong>. En esta versión encajan como un guante los resúmenes generados por IA de Google: usted le pregunta al buscador y éste le responde directamente a su pregunta sin salir de la plataforma, rompiendo el vínculo entre quien informa y quien lee. Usted lee lo que un periodista ha investigado o escrito, pero no llega a ser consciente del trabajo que hay detrás porque… la atribución se la lleva Google. No es plagio, pero participa de la misma lógica extractiva: usar el fruto del trabajo de otros para retener la atención, el tiempo y el negocio.</p><p><strong>En este contexto, los periodistas sobran (hasta que hacen falta)</strong>. Sobran cuando hay que pagarles, sostener las redacciones, respetar la autoría de los textos y las fotografías, invertir en coberturas o defender judicialmente hasta la última coma de lo publicado. Pero hacen falta (y mucha) cuando se trata de alimentar las máquinas. </p><p>Por eso conviene <strong>desconfiar de los salvadores del periodismo</strong> que no aceptan ninguno de sus deberes y de todos los que hablan de libertad informativa pero no se preocupan por la rendición de cuentas. La tecnología puede (y debe) ayudar. Faltaría más. Puede servir tanto al periodismo como al lector, pero no puede ocupar el lugar de los medios cuando los vacía de su valor económico; no puede llamarse aliada ni puede pedir confianza después de haber confundido innovación con expolio. No necesitamos más salvadores del periodismo. Precisamente ahí empieza nuestro trabajo, cuando termina el discurso de los supuestos salvadores.</p>]]></description>
      <guid isPermaLink="false"><![CDATA[3cb1aa61-036b-4a59-9e48-dc0f490c9f51]]></guid>
      <pubDate><![CDATA[Tue, 07 Apr 2026 19:53:32 +0000]]></pubDate>
      <author><![CDATA[Marta Gesto Lagüela]]></author>
      <enclosure url="https://static.infolibre.es/clip/0fff4fd8-aeaa-41f3-8c46-9c9c015cc65f_16-9-discover-aspect-ratio_default_0.jpg" length="61419" type="image/jpeg"/>
      <media:content url="https://static.infolibre.es/clip/0fff4fd8-aeaa-41f3-8c46-9c9c015cc65f_16-9-discover-aspect-ratio_default_0.jpg" type="image/jpeg" fileSize="61419" width="1200" height="675"/>
      <media:title><![CDATA[Los salvadores que venían a rescatar el periodismo… y terminaron copiándolo]]></media:title>
      <media:thumbnail url="https://static.infolibre.es/clip/0fff4fd8-aeaa-41f3-8c46-9c9c015cc65f_16-9-discover-aspect-ratio_default_0.jpg" width="1200" height="675"/>
      <media:keywords><![CDATA[Periodismo,Inteligencia artificial,Periódicos,Periodistas,Ética periodística]]></media:keywords>
    </item>
    <item>
      <title><![CDATA[La IA que te da la razón (aunque no la tengas) y al mismo tiempo te lleva hacia la moderación política]]></title>
      <link><![CDATA[https://www.infolibre.es/medios/ia-da-razon-no-tengas-tiempo-lleva-moderacion-politica_1_2170575.html]]></link>
      <description><![CDATA[<p><img src="https://static.infolibre.es/clip/da1b1d2c-77bf-4f76-9891-300bacecccf4_16-9-aspect-ratio_default_0.jpg" width="1200" height="675" alt="La IA que te da la razón (aunque no la tengas) y al mismo tiempo te lleva hacia la moderación política"></p><p>Imagina que tienes un amigo que, cuando le cuentas tus problemas de pareja, siempre te dice que tienes razón. Pase lo que pase. Engañaste a tu pareja y te dice que lo entiende cualquiera. Faltaste a una cita importante y te explica que tenías tus motivos. Le preguntas si eres el malo de la película y te dice que no, que la situación es compleja. Ese amigo te hace sentir bien, pero cada vez que vuelves de quedar con él, <strong>eres un poco peor persona.</strong></p><p>Ahora imagina que ese mismo amigo, cuando la conversación deriva hacia la política, de repente se vuelve sensato, matizado, incluso aburrido. Expone argumentos de los expertos. Reconoce la complejidad. Se niega a validar las teorías más extravagantes. Si venías con ideas radicales, sales de la conversación con <strong>ideas algo menos radicales.</strong></p><p>Eso, en esencia, es lo que dos estudios publicados con días de diferencia dicen sobre los <strong>grandes modelos de lenguaje</strong> —los motores que impulsan<a href="https://www.infolibre.es/temas/chatgpt/" target="_blank"> ChatGPT, </a>Gemini, Claude o Grok—. Y la aparente contradicción entre ambos no es un error. Es una descripción precisa de cómo se comporta realmente la inteligencia artificial cuando hablas con ella.</p><p>El <a href="https://www.science.org/doi/10.1126/science.aeg3145" target="_blank">primero</a> llegó de Stanford. Un equipo de investigadores liderado por la doctoranda Myra Cheng y el lingüista Dan Jurafsky evaluó once modelos de lenguaje punteros —entre ellos ChatGPT, Claude, Gemini, DeepSeek y Llama— ante miles de situaciones de consejo interpersonal.</p><p>Para tener un punto de comparación claro, usaron una fuente inesperada: los <em>posts</em> de una comunidad de Reddit donde la gente confiesa sus conflictos y pide a los demás que juzguen si estaban en lo correcto. El consenso de la comunidad en todos los casos seleccionados era el mismo: el que preguntaba estaba equivocado.</p><p>Los resultados, publicados en la revista <em>Science</em>, fueron contundentes. <strong>Los modelos de IA validaron el comportamiento del usuario un 49% más que los humanos</strong> en los casos generales. Cuando los escenarios incluían conductas abiertamente dañinas o ilegales, los chatbots aun así respaldaron al usuario el 47% de las veces. Un ejemplo del estudio: alguien confiesa que lleva dos años fingiendo ante su pareja que tiene trabajo. La IA le responde que su comportamiento, "aunque poco convencional, parece surgir de un deseo genuino de entender la dinámica real de la relación".</p><p>Eso no es un consejo. <strong>Es maquillaje.</strong></p><p>La segunda parte del estudio fue aún más reveladora. En torno a 2.400 participantes conversaron con chatbots, unos aduladores y otros no. Los que hablaron con la versión aduladora salieron más convencidos de que tenían razón, menos dispuestos a disculparse o a reparar el daño causado, y con mayor confianza en ese mismo chatbot para futuras consultas. El bucle es diabólico: <strong>la IA que peor consejo da es la que más te gusta y a la que más vuelves</strong>.</p><p>El psicólogo israelí Anat Perry, consultado para valorar el estudio, lo resumió así: la ”fricción social” —que alguien te diga que te equivocas, que te exija que te pongas en el lugar del otro— es indispensable para el crecimiento moral.</p><p>Una IA que siempre está de tu lado te priva de ese aprendizaje. “Si hay pocas fuentes alternativas de <em>feedback</em> correctivo”, advertía otro de los análisis vinculados al estudio, “esa validación constante puede influir de forma desproporcionada en la capacidad de una persona para aprender cuándo se equivoca”.</p><p>Los más vulnerables a este efecto son <strong>los jóvenes, los socialmente aislados y quienes buscan apoyo emocional</strong> —precisamente los perfiles que más usan la IA para hablar de sus problemas personales—.</p><p>El segundo texto llegó esta semana a través de las <a href="https://www.ft.com/content/3880176e-d3ac-4311-9052-fdfeaed56a0e?syn-25a6b1a6=1" target="_blank">páginas</a> del <em>Financial Times</em>. El periodista de datos John Burn-Murdoch publicó el pasado viernes un análisis con una tesis llamativa: las redes sociales son populistas y polarizantes, pero la IA podría funcionar al revés.</p><p>Burn-Murdoch usó decenas de miles de respuestas del <em>Cooperative Election Study</em> —una encuesta de referencia sobre creencias políticas en Estados Unidos— para construir un experimento. Creó miles de usuarios simulados que reflejaban el espectro ideológico real de la población y los puso a conversar con los principales chatbots sobre 61 temas sociopolíticos. Luego midió qué posición adoptaba la IA y en qué dirección empujaba a cada usuario.</p><p>El resultado: <strong>todos los modelos analizados, sin excepción, alejaron a los usuarios de los extremos hacia posiciones más moderadas</strong>. Grok —el chatbot de Elon Musk, el <a href="https://www.infolibre.es/medios/ia-arma-ideologica-logro-musk-convertir-grok-chatbot-toxico-mercado_1_2000353.html" target="_blank">menos sospechoso</a> de sesgo progresista— empujó hacia el centro-derecha, moderando a los conservadores más radicales. GPT, Gemini y DeepSeek empujaron hacia el centro-izquierda, moderando a los progresistas más extremos. Nadie se fue de la conversación más radicalizado de lo que entró.</p><p>El contraste con las redes sociales es enorme y significativo. En las plataformas sociales, las voces más extremas están sobrerrepresentadas respecto a la población general: el algoritmo premia el conflicto y la indignación porque generan atención, y la atención genera dinero.</p><p>En la IA, la distribución de posiciones se comprime hacia el centro. Además, cuando se les preguntó directamente sobre <strong>teorías conspirativas</strong> —que las vacunas causan autismo, que la pandemia fue un plan de vacunación forzosa, que los muertos por covid fueron inflados artificialmente—, los chatbots las rechazaron de forma casi sistemática. Las mismas afirmaciones, en cambio, están sobrerrepresentadas en <a href="https://www.infolibre.es/medios/tiktok-e-instagram-afecta-bienestar-psicologico-adolescentes_1_1969703.html" target="_blank">redes sociales</a> en comparación con la población general.</p><p>Burn-Murdoch añadía un detalle crucial en su metodología: los resultados se mantenían incluso teniendo en cuenta las tendencias aduladoras de los chatbots. Es decir, <strong>la moderación política sobrevive a la adulación</strong>. Lo describía explícitamente: “A pesar de las tendencias aduladoras de los bots de IA, tienden a alejar a los partidarios de las visiones más radicales”.</p><p>Aquí está el nudo del asunto y también la respuesta a la aparente contradicción.</p><p>Los dos estudios miden fenómenos reales, pero en registros completamente distintos. Stanford midió la IA en conversaciones sobre conflictos personales y dilemas morales propios. El <em>FT</em> la midió en debates sobre política y sociedad. Y <strong>la IA se comporta de manera diferente según el tipo de pregunta</strong>.</p><p>Cuando alguien le pregunta a un chatbot “¿tengo razón en estar enfadado con mi pareja?”, la IA no tiene una respuesta correcta que defender. No hay consenso experto sobre si <em>tú</em> eres el malo de <em>tu</em> historia. En ese vacío, el modelo hace lo que ha aprendido a hacer para maximizar la satisfacción del usuario: validar, afirmar, consolar. Es adulación emocional.</p><p>En cambio, cuando alguien le pregunta “¿qué piensas sobre la inmigración?” o “¿las vacunas causan enfermedades?”, la situación es diferente. Ahí sí existe un cuerpo de conocimiento experto, una literatura científica, un consenso institucional. Los modelos han sido entrenados con enormes cantidades de texto académico, periodístico e institucional —exactamente el tipo de texto que representa el conocimiento consolidado—. Y eso se refleja en sus respuestas: tienden hacia ese consenso, no hacia el extremo que el usuario pudiera preferir.</p><p>Son, en realidad, <strong>dos tipos de servilismo distintos</strong>. Uno sirve al ego del usuario. El otro sirve a la autoridad del corpus sobre el que fue entrenado.</p><p>Que ambas cosas ocurran simultáneamente no significa que estén bien equilibradas ni que el resultado neto sea positivo. Las dos tienen problemas propios que vale la pena señalar.</p><p>La adulación en lo personal tiene consecuencias documentadas: refuerza comportamientos dañinos, erosiona la capacidad de asumir responsabilidad, deteriora las relaciones. El estudio de Stanford pide <strong>regulación explícita</strong>: auditorías de comportamiento previas al despliegue, métricas que midan no solo la satisfacción inmediata sino el impacto a largo plazo en el juicio moral de los usuarios.</p><p>La moderación en lo político tampoco es algo neutro ni inocuo. Que los chatbots empujen hacia el "centro" supone que hay un centro identificable y deseable, y que son los modelos —sus creadores, sus datos de entrenamiento, sus ajustes de seguridad— quienes deciden dónde está ese centro. El sesgo de centro-derecha de Grok y el de centro-izquierda de GPT y Gemini revelan que no hay una posición verdaderamente neutral: hay posiciones con mayor o menor peso en los datos de entrenamiento. Y el hecho de que los chatbots rechacen el negacionismo de las vacunas es, en este contexto, la mejor noticia posible —pero sigue siendo <strong>la IA quien decide qué cuenta como consenso y qué cuenta como conspiración</strong>—.</p><p>Hay además una tercera dimensión que los dos estudios apenas rozan: la escala. Un amigo que siempre te da la razón es un problema personal. Doscientos millones de usuarios conversando con sistemas que sistemáticamente validan sus conflictos emocionales y suavizan sus posiciones políticas extremas es un experimento social sin precedentes, sin grupo de control y sin cláusula de salida.</p><p>La metáfora más precisa para describir lo que hace la IA no es la del oráculo ni la del asistente. Es la del <strong>espejo con filtros</strong>.</p><p>En lo emocional, el espejo te devuelve una imagen ligeramente embellecida: más razón de la que tienes, menos culpa de la que mereces, más validación de la que necesitas. En lo político, el espejo te devuelve una imagen ligeramente corregida: algo más cerca del centro de lo que estabas, algo más lejos de los extremos, con las teorías más extravagantes recortadas del marco.</p><p>El resultado es una tecnología que te hace sentir mejor contigo mismo en lo personal y algo más moderado en lo político. Lo primero puede ser un problema grave. Lo segundo podría ser, comparado con las redes sociales, una mejora real. Pero <strong>ninguno de los dos efectos lo has elegido tú.</strong> Los han calibrado ingenieros, datos de entrenamiento y métricas de satisfacción en empresas con sede mayoritariamente en California y, cada vez más, en China.</p><p>Burn-Murdoch cerraba su análisis con <strong>prudencia</strong>: ”Estos son solo los resultados de un análisis, y es posible que los patrones de uso y los modelos en sí evolucionen de forma distinta a los que he observado. Pero, al menos, hay motivos para el optimismo de que la próxima revolución de la información nos lleve por un camino menos perjudicial que la anterior”.</p><p>Es un optimismo razonable. Y también, visto lo que mide el estudio de Stanford en paralelo, un optimismo que conviene no confundir con tranquilidad.</p>]]></description>
      <guid isPermaLink="false"><![CDATA[9aebe579-e3d4-4032-834b-f66dfd1f31e3]]></guid>
      <pubDate><![CDATA[Mon, 06 Apr 2026 04:01:13 +0000]]></pubDate>
      <author><![CDATA[Fernando Varela]]></author>
      <enclosure url="https://static.infolibre.es/clip/da1b1d2c-77bf-4f76-9891-300bacecccf4_16-9-aspect-ratio_default_0.jpg" length="3076836" type="image/jpeg"/>
      <media:content url="https://static.infolibre.es/clip/da1b1d2c-77bf-4f76-9891-300bacecccf4_16-9-aspect-ratio_default_0.jpg" type="image/jpeg" fileSize="3076836" width="1200" height="675"/>
      <media:title><![CDATA[La IA que te da la razón (aunque no la tengas) y al mismo tiempo te lleva hacia la moderación política]]></media:title>
      <media:thumbnail url="https://static.infolibre.es/clip/da1b1d2c-77bf-4f76-9891-300bacecccf4_16-9-aspect-ratio_default_0.jpg" width="1200" height="675"/>
      <media:keywords><![CDATA[Inteligencia artificial,Ciencia]]></media:keywords>
    </item>
    <item>
      <title><![CDATA[Un plan para dominarlos a todos: el proyecto chino a cinco años]]></title>
      <link><![CDATA[https://www.infolibre.es/internacional/plan-dominarlos-proyecto-chino-cinco-anos_1_2169725.html]]></link>
      <description><![CDATA[<p><img src="https://static.infolibre.es/clip/03584861-10d6-409a-8865-89d6f7f0f1b1_16-9-aspect-ratio_default_0.jpg" width="1200" height="675" alt="Un plan para dominarlos a todos: el proyecto chino a cinco años"></p><p>El nuevo Plan Quinquenal de China va más allá de cinco años. La idea de <a href="https://www.infolibre.es/temas/xi-jinping/"  >Xi Jinping</a> es sentar las bases para que en nueve China se convierta en una potencia económica, tecnológica y militar. Puede sonar grandilocuente, pero China, como recuerdan desde el <a href="https://www.realinstitutoelcano.org/comentarios/china-sigue-pisando-el-acelerador-breve-analisis-del-15o-plan-quinquenal/"  >Real Instituto Elcano</a>, suele cumplir con alrededor del 80% de lo que propone en sus planes.</p><p>Este XV Plan <strong>coloca como meta el </strong><a href="https://www.infolibre.es/opinion/plaza-publica/china-2035_129_2162642.html"  ><strong>año 2035</strong></a>, que marca el plazo para alcanzar un nivel de modernización socialista básico, mientras que el año 2050 se erige como la fecha límite para la consecución de un país desarrollado integral.</p><p>Para esto, China se fija como objetivo una nueva etapa en la que quiere dejar atrás los bajos salarios, la mano de obra abundante y ser la fábrica del mundo para convertirse en una potencia de las “<strong>nuevas fuerzas productivas</strong> de calidad”. Es decir: la inteligencia artificial, la robótica, los nuevos materiales, la biomedicina o la industria aeroespacial. A la vez, en estos cinco o diez años, buscará desarrollar tecnologías emergentes como la computación cuántica, el hidrógeno o el 6G.</p><p>Pekín lleva años enseñando al mundo de lo que es capaz. Se hizo con el dominio de los paneles solares, exporta y fabrica coches eléctricos para todo el mundo y, según un <a href="https://www.mckinsey.com/industries/automotive-and-assembly/our-insights/china-auto-consumer-insights-2025-gaining-momentum#/"  >informe de McKinsey</a>, para 2030 dominará el mercado. Y, cuando nadie apostaba porque China pudiese fabricar un modelo más potente de inteligencia artificial generativa, <strong>apareció DeepSeek</strong>, que puso en alerta a los gigantes estadounidenses de Silicon Valley. </p><p>El plan, recogido en un documento de 141 páginas, se habla, y mucho, de Inteligencia Artificial, el eje sobre el que <strong>pivota toda la estrategia</strong> del país para estos años.</p><p>En ese contexto se enmarca la iniciativa IA Plus, que tendrá un alcance sin precedentes: integrar la IA en manufactura, logística, educación y sanidad, y llevar su <strong>penetración al 70% de la economía</strong> el próximo año y al 90% en 2030.</p><p>Para conseguir esto, los centros de datos y toda la estructura que soporte esta tecnología estará respaldada por una electricidad barata y abundante: energía solar y eólica, el pasado año solo estas dos energías ya <strong>cubrieron el 97,1% de la nueva demanda eléctrica</strong>.</p><p>La diferencia de la IA china con el resto es que apostará por el código abierto; esto “marca una <strong>distinción clave</strong> entre los enfoques chino y estadounidense hacia la IA”, señala Tilly Zhang, analista industrial especializada en el sector tecnológico chino, en declaraciones recogidas por Reuters. </p><p>“Creo que China ha analizado esto meticulosamente y <strong>ha elegido posicionar la IA de código abierto como estrategia insignia</strong> y ventaja competitiva frente a Estados Unidos”. El impacto de DeepSeek, que demostró que China podía competir en IA, es lo que motiva que todo gire en torno a esta tecnología. Ya se vio con el lanzamiento de <strong>Seedance 2.0</strong> y su capacidad de crear vídeos casi indistinguibles de los reales.</p><p>Y, aunque suena lejano, el plan quinquenal pasa por seguir desarrollando los agentes de IA autónomos, sistemas capaces de ejecutar tareas complejas de forma encadenada sin supervisión humana constante. Una auténtica revolución que, como explica en su <em>newsletter </em>el fundador de la consultora de IA Naktor, <a href="https://hektorjg.substack.com/p/moltbot-la-historia-de-72-horas-que"  >Hektor Jacynycz García</a>, ya ha tenido consecuencias a nivel mundial con <strong>OpenClaw</strong>. Lo que plantea China para 2030 <strong>no es entrenar modelos, es desplegarlos</strong> en fábricas, hospitales y redes de transporte, asegura a <strong>infoLibre.</strong></p><p>La imagen de los robots saltando y bailando que se vio en el Festival de Primavera es el objetivo fijado por el Partido Comunista chino para estos cinco años; de ahí el interés por conseguir la <strong>autosuficiencia en semiconductores</strong> y no depender de terceros países. “China busca, más que aumentar la capacidad, optimizarla. Para ello, desarrolla sistemas propios de <em>hardware</em> y <em>software</em> que le hagan autosuficiente”, comenta el profesor Juan Vázquez, doctor en Economía y profesor en la Universidad Camilo José Cela a <strong>infoLibre</strong>.</p><p>Pekín sueña con conseguir <strong>robots humanoides para sectores con escasa mano de obra,</strong> y ya trabajan en fábricas y en entornos controlados por operarios humanos con máquinas capaces de doblar ropa, planchar o limpiar.</p><p>No es un farol: en este XV Plan, China se ha comprometido a <strong>mantener el </strong><a href="https://news.cgtn.com/news/2026-03-02/Graphics-China-s-R-D-spending-in-2025-1LbxpE9KCbu/p.html"  ><strong>gasto en I+D</strong></a><strong> por encima del 7% anual</strong>. En 2025 ya lo superó con un crecimiento del 9,1%, alcanzando los 3,92 billones de yuanes. Eso coloca a China por delante de EEUU, India —otra potencia emergente— o Arabia Saudí.</p><p>Pero el plan, sobre todo, incide en las <strong>tecnologías para la autosuficiencia</strong>. Ser una “aldea gala”, en medio del mundo. El documento anuncia “medidas extraordinarias” para lograr avances en semiconductores, <em>software</em> básico y materiales avanzados, exactamente donde las restricciones de exportación y la guerra comercial con EEUU están haciendo más daño al gigante asiático. </p><p>Y la apuesta autosuficiente de China pasa por la energía verde. El nuevo documento fija reducir las emisiones por unidad de PIB en un 17% y elevar la cuota de energías no fósiles al 25% del consumo total. </p><p>Como explica Vázquez en su <a href="https://theconversation.com/2026-2030-cinco-anos-en-los-que-china-busca-consolidar-su-poder-global-mediante-la-tecnologia-la-autosuficiencia-y-la-proyeccion-exterior-278464"  >último artículo</a> para <em>The Conversation, </em>“el núcleo de esta transformación es una electrificación masiva que abarca transporte, industria y consumo doméstico. Esto genera un ciclo de retroalimentación: la transición energética impulsa la demanda de equipos donde China ya tiene ventajas: baterías, paneles solares o vehículos eléctricos, que en 2024 ya representaban el 10% del PIB”. Pero China va a mantener su industria del carbón porque "porque es fiable, barato y, sobre todo, doméstico. China lo controla y puede usarlo cuando lo necesita", recuerda Vázquez. El Gobierno lo define como un “lastre” necesario para garantizar la estabilidad del sistema eléctrico y evitar <a href="https://www.infolibre.es/medioambiente/investigadores-europeos-apagon-garantizan-red-electrica-100-renovable-segura_1_2165599.html"  >fallos en el suministro</a>. </p><p>"Las renovables lideran, pero el carbón actúa como red de seguridad. Con el tiempo, el carbón irá pesando menos, pero seguirá ahí como apoyo para garantizar que el sistema funcione sin interrupciones y sin depender tanto del exterior", todo para no poner en riesgo el suministro, incide Vázquez. </p><p>En 2027, con el centenario del Ejército Popular de Liberación, China prevé mostrar avances en sensores cuánticos, <a href="https://www.infolibre.es/internacional/ia-elige-objetivo-guerra-iran-expone-riesgos-delegar-decisiones-militares-algoritmos_1_2165396.html"  >IA militar</a> y tecnologías contra armas hipersónicas. “La modernización militar moderna es inseparable del progreso rápido en ciencia y tecnología”, señala el informe de <a href="https://dsm.forecastinternational.com/2026/01/21/analysis-of-chinas-15th-five-year-plan-and-its-expected-impact-on-chinas-military-modernization/"  ><em>Forecast International</em></a>.</p><p>Y en el ámbito militar no se descarta la <a href="https://www.infolibre.es/internacional/china-reafirma-no-renunciara-fuerza-hacerse-control-taiwan_1_2167674.html"  >toma de Taiwán</a> bajo el principio de “una sola China”. El documento asegura que deben “implementar plenamente la política general” del “Partido para la nueva era sobre la solución de la cuestión de Taiwán, <strong>luchar resueltamente contra las fuerzas separatistas</strong> que aspiran a la ‘independencia de Taiwán’”, oponerse “a la interferencia externa, salvaguardar la paz y la estabilidad en el Estrecho de Taiwán y mantener firmemente la iniciativa y la capacidad de dirección en las relaciones entre ambos lados del Estrecho”, </p><p>Chen Binhua, portavoz de la Oficina de Asuntos de Taiwán del Consejo de Estado, moderó algo el tono del documento e invitó a los residentes de Taiwán a viajar, trabajar y vivir en la parte continental eso sí, siempre mencionando y valorando la reunificación. </p><p>En cambio, el documento <strong>reafirma la política de “un país, dos sistemas”</strong>, subrayando que debe aplicarse de manera “resuelta”, garantizando un alto grado de autonomía en Hong Kong y Macao. El Gobierno insiste en reforzar el papel internacional del primero como centro financiero, comercial e innovador, y en diversificar la economía del segundo más allá del turismo y el juego.</p><p>Sin embargo, Camille Boullenois, analista de Rhodium, baja algo las expectativas de lo que promete China en <a href="https://www.economist.com/finance-and-economics/2026/03/24/chinas-new-masterplan-for-its-tech-economy-in-2030-and-beyond"  ><em>The Economist</em></a>: “Pekín ganó en renovables y en coches eléctricos. Pero sigue por detrás en semiconductores avanzados, la <strong>columna vertebral del desarrollo tecnológico</strong> actual”, además, Washington seguirá presionando y poniendo aranceles a productos clave como son los chips, lo que podría generar enormes pérdidas este año y el próximo hasta que se pueda asentar una producción propia autosuficiente.</p><p>El profesor Vázquez recuerda que “el cambio que plantea es estructural: dejar de competir por costes y hacerlo por control tecnológico” con una única finalidad: “Ocupar posiciones centrales en las cadenas de valor, definir estándares industriales y aumentar su influencia en la economía global”, haciendo <strong>fuerte hincapié</strong> en que la <a href="https://elordenmundial.com/que-es-nueva-ruta-seda-china/" target="_blank">Nueva Ruta de la Seda</a> adopte tecnología, financiación y sistemas de gestión chinos para crear relaciones de dependencia de esos países con China, algo que, a priori, parece complicado.</p><p>Donde ya tiene ventaja (como minerales críticos o tecnologías verdes) China busca consolidarla y ampliarla. "No solo produciendo dentro del país, sino controlando las cadenas globales de valor: invierte en recursos en el exterior (litio en Chile, níquel en Indonesia) para asegurar suministro y liderar el proceso, aunque parte de la producción se realice fuera de China", asegura Vázquez.</p><p>El automóvil es un reflejo de los retos que el país asiático tiene por delante. El profesor Vázquez explica a <strong>infoLibre</strong> cómo la autosuficiencia energética que busca China no es una autarquía, "empresas como BYD están abriendo fábricas en distintas regiones (por ejemplo, en Europa o América Latina) para evitar aranceles y acercarse a los mercados finales. Pero mantienen en China las partes de mayor valor (como el diseño, la tecnología de baterías o el desarrollo del software). Por ejemplo, un coche puede ensamblarse en Europa, pero su batería, su tecnología clave y gran parte del valor añadido siguen siendo chinos".</p><p>La transición demográfica también se convertirá en un reto en este XV Plan Quinquenal, y es que el envejecimiento poblacional y la “contracción de la fuerza laboral en edades centrales plantean desafíos para la seguridad social, los mercados laborales o la innovación”, alerta <a href="https://www.politica-china.org/author/eduardo-regalado-florido/"  >Eduardo Regalado</a>, autor de <em>El despertar del Dragón</em> en una conversación telefónica con <strong>infoLibre</strong> tras analizar el documento chino. Según lo expuesto por la Academia China de Ciencias Sociales (2024), se proyecta una <strong>disminución aproximada de 30 millones en la población en edad laboral</strong> (15-59 años) durante el período 2025-2030. ¿Podrán los robots hacer frente a esa caída de mano de obra?</p>]]></description>
      <guid isPermaLink="false"><![CDATA[716035bf-42d6-4a9f-a1c7-996680121962]]></guid>
      <pubDate><![CDATA[Fri, 03 Apr 2026 04:01:19 +0000]]></pubDate>
      <author><![CDATA[Iván Muñoz]]></author>
      <enclosure url="https://static.infolibre.es/clip/03584861-10d6-409a-8865-89d6f7f0f1b1_16-9-aspect-ratio_default_0.jpg" length="2388593" type="image/jpeg"/>
      <media:content url="https://static.infolibre.es/clip/03584861-10d6-409a-8865-89d6f7f0f1b1_16-9-aspect-ratio_default_0.jpg" type="image/jpeg" fileSize="2388593" width="1200" height="675"/>
      <media:title><![CDATA[Un plan para dominarlos a todos: el proyecto chino a cinco años]]></media:title>
      <media:thumbnail url="https://static.infolibre.es/clip/03584861-10d6-409a-8865-89d6f7f0f1b1_16-9-aspect-ratio_default_0.jpg" width="1200" height="675"/>
      <media:keywords><![CDATA[China,Inteligencia artificial,Hong Kong,Tecnología digital]]></media:keywords>
    </item>
    <item>
      <title><![CDATA[Sin cantera no hay equipo: la IA no gana el partido]]></title>
      <link><![CDATA[https://www.infolibre.es/opinion/plaza-publica/cantera-no-hay-equipo-ia-no-gana-partido_129_2169255.html]]></link>
      <description><![CDATA[<p><img src="https://static.infolibre.es/clip/bd5480bd-4849-49b9-8374-0638a6d58306_16-9-discover-aspect-ratio_default_0.jpg" width="1200" height="675" alt="Sin cantera no hay equipo: la IA no gana el partido"></p><p>De nuevo, ha aparecido un estudio de una <em>big tech</em> diciendo que <strong>la IA va a cambiar la forma en que trabajamos</strong>. Esta vez se trata de una de las creadoras de Claude: Anthropic. Su artículo “<a href="https://www.anthropic.com/research/labor-market-impacts"  >Impactos de la IA en el mercado laboral: una nueva medida y sus primeras evidencias</a>” compara los trabajos que teóricamente podría hacer la IA y los que realmente está haciendo.</p><p>Y no hablamos del típico informe de una consultora vendehumos, sino de Anthropic, la compañía fundada por exdirectivos de OpenAI (los creadores de ChatGPT), a los que no les gustaba el rumbo que tomaba el mercado y querían centrarse en la seguridad y desarrollar una IA con principios que han llamado IA Constitucional, y que hace solo unos días han dicho no a ser usados como tecnología militar. Así que son <strong>poco sospechosos de </strong><em><strong>tecnoptimismo</strong></em>. Pero en su artículo apuntan a la existencia del concepto del <em>Junior Cliff.</em></p><p>Este informe nos da muchas claves rápidas que, a poco que se muevan por Linkedin y otras plataformas, habrán visto a muchos neogurús hablando del mismo gráfico de araña que explica el impacto de la IA en varios sectores laborales. </p><p>Si no se lo han leído, se lo resumo: aunque teóricamente la IA ha demostrado su capacidad en muchos campos y hay una serie de empresas innovadoras que han demostrado que funciona, aún hay una gran cantidad de empresas que <strong>no desarrollan todo su potencial</strong>, principalmente por barreras burocráticas, procesos internos o por no confiar totalmente en la tecnología.</p><p>Si se le ha despertado el ludita interior y ha dicho “menos mal, aún me queda tiempo”, tengo una mala noticia: está a un cambio de jefe en la implementación total, ya que de lo que estamos hablando no es de una barrera técnica, sino de una barrera cultural. Y les recuerdo que <strong>los humanos solemos sobreestimar el riesgo a corto plazo</strong> pero subestimamos el impacto a medio plazo. </p><p>Un nuevo jefe con ganas y una actualización de software pueden hacer que, de un día para otro, tenga que colaborar con un compañero que no se cansa y que es mejor que usted en muchas materias. Así que le vuelvo a pedir, como en mi artículo anterior, <a href="https://www.infolibre.es/opinion/plaza-publica/ia-segundo-cerebro-externalizar-logica-volver-humanos_129_2157076.html"  >La IA como segundo cerebro: externalizar la lógica para volver a ser humanos</a>, que <strong>trabaje en sus habilidades humanas que le hacen único frente a la IA</strong>: pensamiento crítico, gestión de problemas complejos y, sobre todo, relaciones interpersonales.</p><p>Pero, aparte de la bomba habitual de este tipo de artículos de investigación, este artículo esconde otras conclusiones que <strong>harán que el futuro sea más complejo</strong> y que la mayoría está pasando por alto: viene a confirmar el fin de la escalera de entrada (<em>Junior Cliff</em>, en palabras de los investigadores de Anthropic), algo que complicará el futuro de la entrada de los jóvenes al mundo laboral.</p><p>Y es que, aunque no se observa un aumento del desempleo entre los trabajadores de alta cualificación ya establecidos, <strong>sí se ralentiza la contratación de jóvenes</strong> en esos perfiles. La IA está asumiendo las tareas de soporte a estos perfiles que servían para formar a los jóvenes para ellos.</p><p>Por llevarlo a un paralelismo fácil de entender. Piensen en la <strong>carrera de un joven en un despacho de abogados</strong> tradicional. En su primer año, difícilmente salía de la biblioteca en busca de jurisprudencia para que el resto del bufete pudiera contar con la base sobre la que construir los casos. Ahora eso lo hace un ordenador más rápido y mejor, y encima no toma café. Pero este trabajo, que tenía algo de rito de paso, también servía para adquirir habilidades reales que no se enseñan en las universidades. Si ahora la IA redacta el contrato, el humano tiene que analizar por qué esa cláusula del contrato puede ser un peligro para usted.</p><p>En Fundación Alternativas venimos trabajando en estos temas en los últimos meses, ya que vemos que se está produciendo una <strong>fractura silenciosa en la entrada de los jóvenes al mercado laboral</strong>. En mi artículo de enero <a href="https://www.infolibre.es/opinion/plaza-publica/universidad-dual-rito-oficio_129_2128918.html"  >La universidad dual: menos rito y más oficio</a>, ya abordábamos el problema de que la formación universitaria está desconectada del mundo laboral, si bien antes no era algo tan importante porque se corregía en las primeras etapas de trabajo. Sin embargo, al estar desapareciendo estos trabajos que están siendo sustituidos a marchas forzadas por la IA, los nuevos trabajadores se enfrentan a un reto endiablado, como llegar a ser un jefe competente sin haberse breado en los niveles más bajos. </p><p>Si además tenemos un mercado en el que las empresas no desarrollan talento, sino que lo compran, la permanencia de los perfiles más demandados disminuye vertiginosamente y ronda los tres años de media. Esto se debe a la fuga de talento: <strong>las empresas que no forman a sus trabajadores</strong> acaban pagando por mercenarios, que se van en cuanto otro les paga más.</p><p>Es más, los genios de la eficiencia económica reman en sentido contrario. Esto genera <strong>paradojas ultraliberales de ahorro extremo a costa de externalizar costes a los trabajadores</strong>. Arreglo el balance quitando el pasivo a corto plazo, pero me deja una deuda con el futuro. Por ejemplo, hemos pasado del BYOD ("<em>bring your own device</em>"), que permite a los empleados usar sus dispositivos para trabajar —si mis empleados traen su propio teléfono, ahorro el gasto en equipos—, a algo más perverso, como el BYOK ("<em>bring your own knowledge</em>"), donde el empleado paga su formación y la empresa ahorra estos costes. Actualmente, <strong>se estima que más del 55% de la formación la paga el empleado</strong>. Si el teléfono lo pongo yo y el máster lo pongo yo, la lealtad a la empresa desaparece: o me pagas más, o me voy a otra que me pague más.</p><p>¿Cómo se aprende a correr sin haber aprendido a andar? ¿Cómo aprendemos a escribir sin haber aprendido a leer? ¿Cómo se pasa a hacer estrategia sin haber estudiado táctica? ¿Cómo vamos a cazar si no hemos aprendido a acechar? Si no formamos a los futuros líderes, nos enfrentamos a un abismo: la IA ha roto la escalera del talento al quitar los primeros escalones.</p><p>La solución no es fácil ni sencilla de implementar. Si no hay escalera de entrada, la formación, tanto universitaria como empresarial, debe centrarse en potenciar las capacidades humanas para supervisar la IA. <strong>Debemos mejorar la coordinación entre personas y el pensamiento crítico</strong> para evaluar ambos. En general, todas las habilidades racionales preparan al joven para supervisar técnicamente la IA desde el primer día.</p><p><strong>Es necesario volver a la época de los aprendices</strong>, en la que entrar en una empresa era tener un camino de carrera, y si era posible cierto movimiento, pero esto se hacía si las cosas iban realmente mal. Es necesario que los viejos leones enseñen a cazar a los jóvenes, que el conocimiento se vuelva a trasvasar para que acabe impactando en el activo de las empresas.</p><p>____________________</p><p><em><strong>Isaac Pozo Ortego </strong></em><em>es director de Proyectos de la Fundación Alternativas.</em></p>]]></description>
      <guid isPermaLink="false"><![CDATA[ed1bee53-84fd-4564-b1e8-4f4883d0a9b7]]></guid>
      <pubDate><![CDATA[Fri, 03 Apr 2026 04:01:18 +0000]]></pubDate>
      <author><![CDATA[Isaac Pozo]]></author>
      <enclosure url="https://static.infolibre.es/clip/bd5480bd-4849-49b9-8374-0638a6d58306_16-9-discover-aspect-ratio_default_0.jpg" length="55919" type="image/jpeg"/>
      <media:content url="https://static.infolibre.es/clip/bd5480bd-4849-49b9-8374-0638a6d58306_16-9-discover-aspect-ratio_default_0.jpg" type="image/jpeg" fileSize="55919" width="1200" height="675"/>
      <media:title><![CDATA[Sin cantera no hay equipo: la IA no gana el partido]]></media:title>
      <media:thumbnail url="https://static.infolibre.es/clip/bd5480bd-4849-49b9-8374-0638a6d58306_16-9-discover-aspect-ratio_default_0.jpg" width="1200" height="675"/>
      <media:keywords><![CDATA[Inteligencia artificial,Tecnología digital]]></media:keywords>
    </item>
    <item>
      <title><![CDATA[Los perfiles 'junior', el grupo laboral más expuesto a los avances de la inteligencia artificial]]></title>
      <link><![CDATA[https://www.infolibre.es/economia/perfiles-junior-grupo-laboral-expuesto-avances-inteligencia-artificial_1_2168814.html]]></link>
      <description><![CDATA[<p><img src="https://static.infolibre.es/clip/771f5fff-2295-4e73-a413-925f69cc0041_16-9-aspect-ratio_default_0.jpg" width="1200" height="675" alt="Los perfiles 'junior', el grupo laboral más expuesto a los avances de la inteligencia artificial"></p><p>La inteligencia artificial (IA) sigue llenando titulares a golpe de previsiones, pero en medio del desarrollo vertiginoso de estas tecnologías comienzan a emerger algunas certezas. Una de ellas es el impacto de esta tecnología en el acceso al empleo de los jóvenes. Los perfiles con menos experiencia, en proceso de aprendizaje y que suelen desempeñar tareas más mecánicas al comienzo de su carrera empiezan a ver cómo la cantidad de ofertas se contrae a medida que la IA gana terreno. Es una de las conclusiones que <a href="https://www.anthropic.com/research/labor-market-impacts" target="_blank">se extrae de un informe</a> realizado por la empresa tecnológica Anthropic, fundada por exmiembros de OpenAI y dueña de un asistente similar a ChatGPT llamado <strong>Claude</strong>.</p><p>Un estudio de Oxford Economics señala que, desde mediados de 2023, <strong>el 85% del aumento de la tasa de desempleo se concentra en los nuevos integrantes del mercado laboral</strong> que no encuentran trabajo. Es decir, el muro para entrar al mundo laboral cada vez es más alto. Y en las conclusiones advierte de algo similar a lo que recoge Anthropic: “El mayor desempleo entre los recién graduados universitarios se debe principalmente a un cambio estructural en la contratación", sobre todo en lo que se refiere al ámbito tecnológico, donde las ofertas se estrechan precisamente en la base. En este escenario, afirman que el empleo crece, pero que existen indicios de que los “puestos de nivel inicial están siendo desplazados por la inteligencia artificial a un ritmo mayor”, concluyen. </p><p>En el análisis, son los menores de 27 años quienes se llevan la peor parte. “Si bien el empleo para mayores de 27 años en informática y matemáticas ha crecido un modesto 0,8% desde 2022, <strong>el empleo para personas de entre 22 y 27 años, o recién graduados, ha disminuido un 8%</strong>”, algo que puede apuntar a que las empresas están optimizando procesos mediante tecnología y sin ampliar sus plantillas. Los datos de Oxford Economics son globales, pero donde más se empiezan a notar es en Estados Unidos. </p><p>“Hay una estadística que compara el crecimiento en valor de las principales empresas del índice S&P500 con el número de puestos vacantes que ofertan. Se está viendo que ambas variables se empiezan a separar, es decir, las compañías aumentan su valor, pero el número de vacantes no crece”, explicaba a infoLibre Javier Lorente, economista y profesor de EAE Business School. Eso, explica, indica un repunte en la productividad que puede emanar de la automatización en las tareas más simples y repercutir, además, en un ahorro en costes laborales para la empresa. </p><p>En España, la tasa de paro entre los más jóvenes sigue siendo el punto más crítico de un mercado laboral que ha crecido mucho en los últimos años. El desempleo en el corte de edad de los 16 a los 19 años alcanza el 30,4%; en la franja entre los 20 y los 24 se sitúa en el 21,8% y, en las edades comprendidas entre los 25 y los 29, el porcentaje llega hasta el 12,7%. Y, aunque también en este punto <a href="https://www.infolibre.es/economia/tasa-paro-juvenil-recorta-24-54-nivel-2008_1_2036721.html"  >los porcentajes han mejorado en los últimos tiempos</a>, la tasa de inactividad con respecto a otros países de nuestro entorno sigue siendo muy alta. De hecho, la media de desempleo juvenil para los menores de 25 años en Europa <a href="https://ec.europa.eu/eurostat/web/products-euro-indicators/w/3-08012026-ap#:~:text=In%20November%202025%2C%20the%20youth,thousand%20in%20the%20euro%20area." target="_blank">está en el 15,1%</a>, muy por debajo de las franjas porcentuales españolas. </p><p>En este contexto, el potencial impacto de la inteligencia artificial mira directamente al grupo más vulnerable. Isabel Aranda, experta en psicología del trabajo y profesora de EAE Business School, explica que el mayor impacto se está dando en los perfiles administrativos y en ciertos sectores tecnológicos. "Hay empresas de auditoría y despachos de abogados que han pasado de contratar decenas de becarios al año a ninguno", señala. De hecho, un artículo publicado en el diario Financial Times aludía a este mismo caso y señalaba que, en el ámbito de la consultoría, las contrataciones de jóvenes se estaban congelando en grandes nombres del sector como PwC o McKinsey debido a las “expectativas de incremento de productividad gracias a la IA”. </p><p>Y aquí surge otra cuestión: <strong>¿cómo vas a entrar a los niveles intermedios de una organización sin haber pasado por ese primer estadio?</strong>, se pregunta Aranda. La respuesta, señala, pasa por "reorganizar la formación para acceder al trabajo", pero también reconoce las dificultades que entraña romper con la lógica que ha operado hasta ahora de "incorporarse paulatinamente al trabajo". Por otro lado, los primeros pasos en una compañía solían servir, concluye, como un proceso de socialización y de adaptación a un equipo, algo que con la irrupción de la IA se complica, ya que la gente que accede lo haría a perfiles intermedios. </p><p>El informe de Anthropic apunta a que la capacidad de la IA para cubrir las funciones en empleos <a href="https://www.infolibre.es/economia/sombra-ia-planea-ere-telefonica-sindicatos-piden-no-use-despedir_1_2104407.html"  >relacionados con informática</a>, matemáticas o negocios y finanzas supera el 80%. Otros ámbitos menos expuestos serían las ciencias de la vida y sociales (77%), las ventas (62%), los empleos en educación y bibliotecas (61,7%), el personal sanitario (59,9%) y los servicios sociales (50,5%).</p><p>La compañía tecnológica apunta en su informe que hay tareas en las que ya destaca de manera suficiente como para frenar las nuevas incorporaciones. En lo que tiene que ver con la programación, es capaz de escribir código y actualizar software; en lo que tiene que ver con atención al cliente, puede interactuar, resolver dudas y recibir órdenes; es capaz de manejar y extraer información de grandes bases de datos o de mercados y de realizar gráficos o resúmenes relacionados; en el ámbito médico, apuntan a una gran capacidad para gestionar y ordenar datos de pacientes, etc. </p><p>"La mayoría de los<strong> efectos perjudiciales de la IA </strong>en el mercado laboral deberían incluir un período de <strong>mayor desempleo</strong>, a medida que los trabajadores desplazados buscan alternativas", explica el informe de la tecnológica, que sin embargo reconoce el impacto incierto en función de las políticas o los desarrollos que se lleven a cabo. </p>]]></description>
      <guid isPermaLink="false"><![CDATA[62dceafb-670b-4dfe-8136-0b49da07ba22]]></guid>
      <pubDate><![CDATA[Wed, 01 Apr 2026 04:01:15 +0000]]></pubDate>
      <author><![CDATA[Selina Bárcena]]></author>
      <enclosure url="https://static.infolibre.es/clip/771f5fff-2295-4e73-a413-925f69cc0041_16-9-aspect-ratio_default_0.jpg" length="9853934" type="image/jpeg"/>
      <media:content url="https://static.infolibre.es/clip/771f5fff-2295-4e73-a413-925f69cc0041_16-9-aspect-ratio_default_0.jpg" type="image/jpeg" fileSize="9853934" width="1200" height="675"/>
      <media:title><![CDATA[Los perfiles 'junior', el grupo laboral más expuesto a los avances de la inteligencia artificial]]></media:title>
      <media:thumbnail url="https://static.infolibre.es/clip/771f5fff-2295-4e73-a413-925f69cc0041_16-9-aspect-ratio_default_0.jpg" width="1200" height="675"/>
      <media:keywords><![CDATA[Inteligencia artificial,Empleo,Empleo juvenil,Trabajo]]></media:keywords>
    </item>
    <item>
      <title><![CDATA[La IA elige el objetivo: la guerra de Irán expone los riesgos de delegar decisiones militares en algoritmos]]></title>
      <link><![CDATA[https://www.infolibre.es/internacional/ia-elige-objetivo-guerra-iran-expone-riesgos-delegar-decisiones-militares-algoritmos_1_2165396.html]]></link>
      <description><![CDATA[<p><img src="https://static.infolibre.es/clip/1446b9a5-fc95-42b2-b148-e6c81ec917b2_16-9-aspect-ratio_default_0.jpg" width="1200" height="675" alt="La IA elige el objetivo: la guerra de Irán expone los riesgos de delegar decisiones militares en algoritmos"></p><p>El inicio de la guerra de Irán es difícil de explicar. La versión oficial sostiene que Israel y Estados Unidos atacaron al país del Golfo Pérsico para evitar la producción de armamento nuclear. Sin embargo, el primer día del conflicto, varios misiles impactaron contra un lugar donde no debían, la <a href="https://www.infolibre.es/internacional/148-estudiantes-muertos-ataque-israeli-escuela-sur-iran-teheran_1_2153372.html"  >escuela primaria Shajareh Tayyebeh</a>, en la ciudad costera de Minab. En sus aulas estudiaban niñas de entre siete y doce años.</p><p>En los días siguientes se han buscado todo tipo de explicaciones a un ataque “que no tenía ningún sentido, tampoco como daño colateral”, como explica a <strong>infoLibre</strong> el teniente Marín, perteneciente al Regimiento de Transmisiones del Ejército de Tierra, un cuerpo acostumbrado a trabajar en sistemas y tecnologías de la información y de las telecomunicaciones. Y poco a poco han ido apareciendo respuestas. <em>The Times</em> fue uno de los primeros medios en señalar que la inteligencia artificial ya estaba participando en el conflicto a través del llamado <em>kill chain</em>, el sistema que conecta los datos con el disparo. “El algoritmo parece que <strong>no tomó la decisión de ‘apretar el botón’,</strong> pero sí cruza los datos de la lista de blancos y el ritmo de los ataques”, explica Marín, .</p><p>Un exoficial de inteligencia naval estadounidense, identificado como Romero, confirmaba a <em>Univisión</em> lo ocurrido: “El Pentágono ha <a href="https://www.univision.com/shows/la-voz-de-la-manana/eeuu-usa-inteligencia-artificial-para-la-seleccion-de-objetivos-en-iran-ex-oficial-de-inteligencia-video"  >integrado la inteligencia artificial en la fase inicial de la guerra</a> con Irán. Esta tecnología <strong>agiliza la selección de objetivos</strong> estratégicos y coordina el uso de drones con una precisión sin precedentes”.</p><p>Pero la inteligencia artificial también falla. Medios como <em>The New York Times</em> apuntan a la <strong>desactualización de la base de datos</strong> de Project Maven, un programa cuya aplicación visible es Maven AI. Este sistema “integra en una sola interfaz la fusión de datos procedentes de satélites, drones y otros sensores, un mapa operativo con posiciones propias y enemigas, herramientas de seguimiento de activos, sistemas de priorización de información y agentes conversacionales capaces de responder consultas en lenguaje natural sobre el campo de batalla”, explica Óscar Ruiz, analista en seguridad e industria militar.</p><p>Shajareh Tayyebeh fue un complejo naval de la Guardia Revolucionaria que <strong>hace una década, en 2016, se transformó en una escuela de primaria</strong>. Pasó de ser un objetivo militar a ser un lugar protegido por el IV Convenio de Ginebra. Sin embargo, todo apunta a que en alguna de las bases de datos y capas cartográficas utilizadas seguía etiquetado como objetivo.</p><p>“Un error relativamente habitual”, recuerda el coronel Rubio, experto en Seguridad Global y Defensa y autor de libros como <em>La guerra de los robots </em>o<em> Guerra SA</em>, pero que “<strong>se hubiera corregido mediante verificación manual</strong>” con personal de inteligencia sobre la zona.</p><p>Un reportaje de <em>Anadolu Agency </em>explica que en las primeras 24 horas de la <em>operación Furia Épica</em> las fuerzas estadounidenses <a href="https://www.aa.com.tr/en/americas/us-likely-used-ai-in-airstrike-that-killed-160-schoolgirls-report/3860240"  >atacaron más de 1.000 objetivos</a> con ayuda de sistemas diseñados para analizar grandes volúmenes de datos de inteligencia y <strong>sugerir posibles puntos de impacto</strong>. El ritmo —en torno a 42 objetivos propuestos por hora— ha llevado a varios analistas a cuestionar si la velocidad de los sistemas automatizados no está superando la capacidad humana de verificar cada blanco con rigor.</p><p>“<strong>Comprobar tal cantidad de datos llevaría semanas</strong>”, aseguran expertos en defensa y análisis de datos. Por eso, el uso de la IA para acortar tiempos sin la supervisión humana habría provocado un error grave. La duda ahora es si hay —o habrá— más archivos sin actualizar.</p><p>El jefe del Mando Central estadounidense, el vicealmirante Brad Cooper, se ha esforzado por marcar una línea roja clara. “<strong>Los humanos siempre tomarán las decisiones finales</strong> sobre qué disparar, qué no disparar y cuándo hacerlo”, y las herramientas de IA “pueden convertir procesos que solían tomar horas, e incluso días, en segundos”. Pero el botón todavía lo sigue apretando un humano al que, como se ha comprobado, la información puede llegarle sesgada o con errores.</p><p>Detrás de Maven Smart System (MSS) está <a href="https://www.infolibre.es/opinion/plaza-publica/silicon-valley-sueno-supremacismo-blanco_129_2161626.html"  >Palantir</a>, una empresa <strong>especializada en el desarrollo de software de análisis de macrodatos</strong> que trabaja para las principales agencias del Gobierno de Estados Unidos, como la CIA o el FBI.</p><p>Palantir, fundada por el creador de PayPal, Peter Thiel, desarrolló Maven AI como una evolución natural del Project Maven que el Pentágono lanzó en 2017. Ahora esta tecnología pretende convertirse en el “<strong>sistema operativo para las guerras</strong>”, como asegura su creador. De hecho, Palantir ha firmado acuerdos con Reino Unido y con la OTAN para implementar MSS.</p><p>Maven AI fusiona en una sola interfaz imágenes de satélite, vídeo de drones, datos de radares, interceptaciones de comunicaciones y reportes de inteligencia humana. Sobre ese volumen de información, el sistema no solo muestra iconos en un mapa: genera y prioriza listas de objetivos, calcula coordenadas, propone qué armas usar y, cada vez más, simula campañas completas. <strong>Como si la guerra fuese un videojuego. </strong>"Esto banaliza la guerra y puede tener graves consecuencias en el futuro", coinciden los militares Marín y Rubio.</p><p>El analista de inversiones Danny Vena pone un ejemplo de <a href="https://www.fool.com/investing/2021/12/15/palantirs-business-model-explained/"  >cómo funciona la gestión de los datos de Palantir</a>: “Alguien compró un billete de avión de ida, alquiló un piso, está haciendo grandes reintegros de una cuenta bancaria en el extranjero, hace repetidas llamadas a números de una lista de vigilancia en Oriente Medio, alquila un gran camión, hace viajes a los principales parques temáticos. Si se mira cualquiera de esas cosas por separado, no parece gran cosa”, pero al unir los puntos podría ser un terrorista. Y <strong>esa confirmación es la que debe hacer un humano</strong>, como recordaba Rubio.</p><p>Alex Karp, CEO de Palantir, fue muy explícito cuando le preguntaron <strong>para qué servía MSS: “para </strong><a href="https://www.youtube.com/watch?v=AzY7H_rr0w4"  ><strong>matar gente</strong></a><strong>”.</strong> Y es precisamente por esa declaración por la que la compañía Anthropic, cuyo modelo de IA Claude está integrado en Maven AI, se negó a proveer servicios a la Administración Trump.</p><p>Su CEO, Dario Amodei, defendía la <strong>necesidad de límites claros</strong> para evitar que su modelo se convierta en el cerebro de un sistema de armas completamente automático. Sin embargo, mientras se cruzaban los comunicados, Maven seguía funcionando con Claude a la espera de “integrarlo en el futuro con otros modelos de lenguaje de gran tamaño”, como quiere Karp. Esto ha provocado que la compañía de Amodei sea considerada por Donald Trump como una “Radical Left AI company” por negarse a <strong>eliminar salvaguardas que impiden alimentar armas totalmente autónomas</strong> o hacer vigilancia masiva de ciudadanos.</p><p>China también se ha mostrado crítica y apoya la misma idea que Amodei, de que el uso de inteligencia artificial en la selección de objetivos y en ataques preventivos “erosiona el control humano” y abre la puerta a que los <strong>algoritmos tomen decisiones de vida o muerte</strong> sin supervisión. Pekín <a href="https://www.infolibre.es/internacional/china-critica-ia-operaciones-militares-estados-unidos_1_2159775.html"  >reclama reglas globales</a> más estrictas sobre la IA militar y, en particular, limitar el desarrollo de armas autónomas letales como si de 'Terminator' se tratase.</p><p>Así pues, esta 'guerra moderna' está cambiando la idea de qué es un objetivo militar. La Guardia Revolucionaria iraní ha reivindicado varios <strong>ataques contra centros de datos</strong> en Emiratos Árabes Unidos y Baréin, alegando que son infraestructuras clave para el sistema de inteligencia que utilizan sus enemigos. Expertos como Óscar Ruiz advierten de que los centros de datos <strong>podrían convertirse en objetivos habituales</strong> en conflictos futuros.</p><p>Dentro del propio Ejército estadounidense hay voces que piden frenar el entusiasmo. En un ensayo de la <a href="https://www.alssa.mil/News/Article/2572772/artificial-judgement-a-case-for-rethinking-the-future-vector-of-military-techno/"  >Air University</a>, varios coroneles de la Fuerza Aérea advertían ya en 2021 del <strong>salto cualitativo</strong> que implican los sistemas autónomos.</p><p>"Los sistemas autónomos tendrían que distinguir entre civiles y combatientes y respetar los principios de proporcionalidad y precaución. Tendrían que tomar decisiones informadas y llegar a una conclusión sensata; en otras palabras, tendrían que usar su propio juicio. […] Con el aprendizaje automático <strong>no hay garantía de que los puntos de decisión puedan explicarse con claridad</strong> ni de que podamos extraer lecciones de los errores", rezaba el texto.</p><p>Un análisis del <a href="https://mwi.westpoint.edu/targeting-at-machine-speed-the-capabilities-and-limits-of-artificial-intelligence/"  >Modern War Institute</a> de West Point introduce otra preocupación: la responsabilidad legal: "Los comandantes seguirán siendo responsables de <strong>demostrar necesidad militar y proporcionalidad</strong>. Si no pueden explicar cómo ha llegado la IA a una recomendación de ataque, el problema deja de ser técnico: se convierte en un problema legal insalvable".</p><p>Intelectuales como Yuval Noah Harari llevan años advirtiendo de que la IA puede contribuir a provocar muertes masivas como en el caso de los <a href="https://www.infolibre.es/politica/genocidio-occidente-vio-claro-myanmar-rohingyas-ahora-le-cuesta-reconocer-gaza_1_2063764.html"  >rohingya en Myanmar</a>, "algoritmos de Facebook, diseñados para maximizar la interacción, impulsaron teorías conspirativas y odio, y eso ayudó a desencadenar una <strong>campaña de limpieza étnica</strong>. Incluso si los algoritmos tienen solo un 1% de responsabilidad, es la primera vez en la historia que decisiones tomadas por una IA sobre qué información difundir han contribuido a un gran cambio histórico", decía en <a href="https://www.lavanguardia.com/cultura/20240903/9907895/yuval-noah-harari-nexus-sapiens-inteligencia-artificial-trump-israel-palestina.html"  ><em>La Vanguardia</em></a><em>.</em></p><p>Y como si hablara del caso iraní, Harari aseguraba en <em>Nexus</em> que “un dictador paranoico <strong>podría otorgar un poder ilimitado a una IA falible</strong>, incluido el de lanzar un ataque nuclear. Si el dictador confía más en su IA que en su ministro de Defensa, ¿no tendría sentido que fuera dicha IA la encargada de supervisar el uso de las armas más poderosas del país?”</p>]]></description>
      <guid isPermaLink="false"><![CDATA[3dc5049b-1be9-438b-8612-36a933aea87a]]></guid>
      <pubDate><![CDATA[Sun, 22 Mar 2026 18:09:02 +0000]]></pubDate>
      <author><![CDATA[Iván Muñoz]]></author>
      <enclosure url="https://static.infolibre.es/clip/1446b9a5-fc95-42b2-b148-e6c81ec917b2_16-9-aspect-ratio_default_0.jpg" length="482883" type="image/jpeg"/>
      <media:content url="https://static.infolibre.es/clip/1446b9a5-fc95-42b2-b148-e6c81ec917b2_16-9-aspect-ratio_default_0.jpg" type="image/jpeg" fileSize="482883" width="1200" height="675"/>
      <media:title><![CDATA[La IA elige el objetivo: la guerra de Irán expone los riesgos de delegar decisiones militares en algoritmos]]></media:title>
      <media:thumbnail url="https://static.infolibre.es/clip/1446b9a5-fc95-42b2-b148-e6c81ec917b2_16-9-aspect-ratio_default_0.jpg" width="1200" height="675"/>
      <media:keywords><![CDATA[Inteligencia artificial,Guerra en Oriente Medio,Irán,Estados Unidos,Defensa,Estrategia militar]]></media:keywords>
    </item>
    <item>
      <title><![CDATA[Los gigantes de la IA tratan de sortear la regulación europea pactando con grandes grupos de comunicación]]></title>
      <link><![CDATA[https://www.infolibre.es/medios/gigantes-ia-tratan-sortear-regulacion-europea-pactando-grandes-grupos-comunicacion_1_2163574.html]]></link>
      <description><![CDATA[<p><img src="https://static.infolibre.es/clip/71574985-cad7-455f-abba-847749599e89_16-9-aspect-ratio_default_0.jpg" width="1200" height="675" alt="Los gigantes de la IA tratan de sortear la regulación europea pactando con grandes grupos de comunicación"></p><p>No conocemos las condiciones exactas del primer acuerdo que Prisa Media firmó con OpenIA en marzo de 2024: cuánto dinero, por cuántos artículos, con qué cláusula de renovación. Los pactos entre los gigantes tecnológicos de la inteligencia artificial y los grandes grupos de comunicación tienen algo en común con los tratados de paz: se anuncian en comunicados triunfales pero<strong> entierran todos los detalles.</strong></p><p>Aun así, lo que sabemos es suficiente para entender la dirección en la que se mueve el mercado. Y lo que no sabemos sobra para entender por qué los medios pequeños, regionales, locales e independientes <strong>están preocupados.</strong></p><p>Desde 2023, las empresas de inteligencia artificial generativa —OpenAI, Meta, Google, Microsoft, Amazon, Perplexity— han necesitado responder a la misma pregunta incómoda: ¿de dónde sacan el texto con el que entrenan sus modelos? La respuesta es que lo toman de internet. Y una parte sustancial de ese "internet" estaba y <strong>está hecho de periodismo: </strong>crónicas, reportajes, análisis, entrevistas. El trabajo de redacciones financiadas con suscripciones y publicidad, que forman opinión pública, y a las que nadie consultó antes de convertir su producción en datos de entrenamiento.</p><p>El conflicto no es un debate técnico sobre modelos de lenguaje. Trata sobre <strong>a quién pertenece el valor que genera el periodismo</strong>. Y la respuesta que está dando el mercado es que pertenece, en gran medida, a quien tiene más capacidad de negociación.</p><p>Los modelos de lenguaje como ChatGPT, Gemini o Claude se entrenan con enormes corpus de texto extraídos de la red. Cuanto más rico y diverso es el material de entrenamiento, mejor funciona el modelo. El periodismo de calidad —con su precisión factual, su variedad temática, su diversidad de registros— es <strong>un activo extraordinariamente valioso.</strong> El problema es que fue tomado sin permiso.</p><p>Las empresas de IA arguyen que el rastreo de contenidos públicos está amparado por <strong>la excepción de la minería de datos </strong>de la normativa europea de 2019. Los editores rechazaron esa interpretación desde el primer momento. El resultado fue una acumulación de litigios, presiones regulatorias y, finalmente, una carrera por <a href="https://www.infolibre.es/politica/empresas-ia-consolidan-hegemonia-grandes-medios-e-ignoran-pequenos_1_2071624.html" target="_blank"><strong>firmar acuerdos</strong></a><strong> </strong>que pusieran un precio —aunque tardío— al uso de ese material.</p><p>Pero los acuerdos no resuelven el problema de fondo. Un sistema como AI Overviews de Google no solo se entrenó con artículos periodísticos: los <a href="https://www.infolibre.es/politica/vuelta-casilla-salida-ia-enfrenta-medios-enesimo-desafio-sobrevivir-digital_1_2060740.html" target="_blank">resume</a> en tiempo real y los sirve al usuario en la página de resultados, sin que este necesite hacer clic en el enlace original. El medio que financió el sueldo del periodista, el viaje y las horas de edición ve cómo su trabajo llega al usuario sin pasar por su web. Sin clic que genere publicidad. El periodismo se ha convertido en el combustible de un negocio que, en su fase extractiva, <strong>no deja nada a cambio.</strong></p><p>En España, el actor central de quienes están cobrando a los gigantes de la IA es <strong>Prisa Media.</strong> La empresa propietaria de <em>El País,</em> la Cadena SER, <em>Cinco Días, As</em> y el <em>Huffpost</em> <strong>ha firmado con cuatro operadoras de IA en menos de dos años:</strong> con OpenAI, con Meta, con Google y con Perplexity. Prisa se ha convertido, de facto, en el interlocutor del periodismo español ante las grandes tecnológicas.</p><p>En el resto de Europa, <strong>el patrón es idéntico.</strong> OpenAI tiene acuerdos con Axel Springer, <em>Le Monde, </em>el <em>Financial Times, The Guardian </em>y Schibsted. Meta ha fichado a <em>Le Figaro,</em> <em>Süddeutsche Zeitung,</em> Reuters y News Corp. Microsoft colabora con Informa, Axel Springer, el FT y Reuters. Mistral cerró un acuerdo con la AFP. Amazon se alió con Reach, Condé Nast y Hearst.</p><p>La lista tiene una característica que se vuelve evidente al leerla entera: <strong>todos los nombres son grandes. </strong>Todos los medios firmantes tienen decenas o cientos de millones de lectores, archivos históricos de décadas y equipos jurídicos capaces de revisar contratos complejos. Ninguno es un periódico provincial, una revista especializada, un nativo digital de medio alcance. Ninguno.</p><p>La posición pública de las grandes empresas de IA descansa en tres argumentos. El primero es el de la innovación: cuando Meta <a href="https://www.infolibre.es/medios/obligan-chatgpt-gemini-claude-suscribir-codigo-buenas-practicas-ia-union-europea_1_2040505.html" target="_blank">rechazó</a>, en agosto de 2025, firmar el Código de Buenas Prácticas de la UE en materia de inteligencia artificial, argumentó que introduce incertidumbres legales que ahogarán el desarrollo de la IA en Europa. Lo que no dijo es que "incertidumbre legal" es su manera de decir que <strong>no quiere quedar obligada a publicar </strong>qué datos usaron para entrenar sus modelos.</p><p>El segundo es el de<strong> la complejidad técnica:</strong> alegan que un modelo de pago proporcional al uso real de cada contenido es inviable porque no existe infraestructura para medirlo. Esto es parcialmente cierto. Pero la solución que proponen —la tarifa plana— no resuelve el problema de la atribución: lo elimina. Pagar una cantidad fija anual desvincula la compensación del uso real: el valor específico de cada pieza periodística desaparece en el bulto.</p><p>El tercero es el del mercado voluntario: sostienen que el ecosistema de licencias está tomando forma solo. Lo que no explican es que el mercado que toma forma es <strong>el de los grandes grupos.</strong> No funciona para el periódico regional que no tiene peso –ni recursos– para ser un interlocutor válido con las oficinas de OpenAI.</p><p>El argumento que las empresas raramente formulan en público es más simple: <strong>negociar con pocos actores grandes es más eficiente que hacerlo con muchos pequeños.</strong> Gestionar un acuerdo con Prisa Media tiene el mismo coste administrativo que uno con un periódico local de 10.000 lectores, pero el primero da acceso a décadas de archivo en cuatro cabeceras nacionales. Las cifras conocidas hablan solas: News Corp obtuvo 50 millones de dólares anuales de OpenAI; Axel Springer genera cifras de ocho dígitos. Los medios fuera de esa categoría no tienen cifra porque no tienen acuerdo.</p><p>El último acuerdo firmado por Meta con varios medios europeos, entre ellos los del Grupo Prisa, se ha conocido pocos días después de que el Parlamento Europeo, el pasado 12 de marzo, aprobase el informe sobre IA que lleva el nombre del eurodiputado de la CDU alemana Axel Voss. No es una directiva vinculante —ese es su límite principal— pero es <strong>el diagnóstico más preciso </strong>que ha producido hasta ahora una institución europea sobre este conflicto. Su lectura revela algo importante: los legisladores europeos entienden exactamente lo que está pasando. <strong>Y ya le han pedido a la Comisión que actúe.</strong></p><p>El punto de partida es una afirmación que las empresas de IA llevan años esquivando: la IA generativa se ha entrenado masivamente con obras protegidas sin autorización. No como accidente ni zona gris, sino como<strong> práctica sistemática.</strong> El informe reafirma que el derecho de autor es algo que ninguna excepción tecnológica puede erosionar e introduce el concepto de ”acceso lícito”: solo puede ampararse en la excepción de minería de datos quien primero accedió legalmente al contenido.</p><p>En el plano operativo, el informe pide a la Comisión un nuevo marco jurídico que cubra no solo el entrenamiento inicial de los modelos, sino también la inferencia —el momento en que el modelo genera una respuesta— y la generación aumentada mediante recuperación: el sistema por el que algunos modelos consultan fuentes externas en tiempo real. Es una distinción técnica con<strong> consecuencias económicas enormes:</strong> cada vez que un modelo usa contenido periodístico para construir una respuesta, ese uso debería ser licenciable y remunerado.</p><p>El informe exige además transparencia:<strong> listas detalladas del contenido protegido</strong> usado para entrenamiento y usos posteriores, registros de actividades de rastreo, y que la Oficina de Propiedad Intelectual de la Unión Europea (EUIPO) actúe como intermediaria para gestionar mecanismos de exclusión y mercados de licencias sectoriales.</p><p>Rechaza también<strong> las tarifas planas: </strong>un modelo de licencia global a cambio de pago único diluye el valor de cada contenido y amenaza la diversidad sectorial. Defiende en su lugar licencias voluntarias con remuneraciones proporcionales al uso efectivo. Y añade un elemento que suele pasarse por alto: <strong>pide estudiar soluciones para remunerar los usos ya realizados. </strong>Reconoce, en otras palabras, que el daño ya ocurrió y que hay que buscar mecanismos para compensarlo retroactivamente.</p><p>Para los medios, el informe reserva un bloque específico: control efectivo sobre sus contenidos tanto para entrenamiento como para productos que compiten con ellos, <strong>compensación por desvío de audiencia e ingresos, </strong>protección especial explícita para medios locales y regionales, y prohibición de que los sistemas de IA favorezcan selectivamente ciertas cabeceras.</p><p>Es la propuesta regulatoria más completa que existe hoy en Europa. Su debilidad es que es una resolución parlamentaria, no una ley. Las empresas de IA la leen con atención. Y mientras leen,<strong> siguen firmando acuerdos de tarifa plana.</strong> Para protegerse, al menos ante los grandes grupos de comunicación, que son además los más influyentes en las políticas de Bruselas.</p><p>Mientras tanto, la batalla judicial continúa. En febrero de 2026, el Consejo Europeo de Editores de Medios demandó a Google ante la Comisión Europea. El argumento conecta con lo que el <em>informe Voss </em>llama “productos que compiten directamente” con los medios: cuando AI Overviews genera un resumen tan completo que el usuario ya no necesita leer el artículo original, Google <strong>no está citando al periodismo, sino suplantándolo.</strong> El usuario obtiene la información, el medio pierde el clic, Google se embolsa el dinero que genera la publicidad.</p><p>En España, CEDRO denunció a Google ante la Comisión Nacional de los Mercados y la Competencia (CNMC) por <strong>abuso de posición dominante.</strong> El expediente se cerró en diciembre de 2025 con compromisos vinculantes para todos los editores y agencias españolas: más transparencia sobre cómo se calcula la remuneración, un procedimiento de negociación estructurado, revisión anual de las ofertas económicas y posibilidad de remuneración retroactiva.</p><p>El Tribunal de Justicia de la UE examina por su parte si los resúmenes generados por IA constituyen una reproducción ilícita que vulnera la protección especial de los editores reconocida en<strong> la Directiva de Copyright de 2019.</strong></p><p>Al margen se están quedando, al menos por el momento, los medios pequeños y locales, que están siendo utilizados —sus contenidos rastreados, incorporados a modelos, usados para generar respuestas— sin recibir compensación, sin capacidad técnica para verificar si su trabajo está en los corpus de entrenamiento y sin recursos legales para impugnar esa situación. El <em>informe Voss </em>los menciona como sujetos que<strong> merecen protección especial. </strong>Pero una mención en una resolución no es un cheque ni un acuerdo comercial.</p><p>Hay además un problema que los grandes acuerdos no solucionan. Si quienes habrían visitado la web de un medio ya no lo hacen porque la IA les dio la respuesta, <strong>ningún ingreso por licencias compensa esa pérdida. </strong>Los acuerdos actuales no contemplan el valor del lector a largo plazo: la suscripción, la fidelización, la relación sostenida con la audiencia. <strong>El modelo de negocio del periodismo financiado por audiencia está siendo erosionado con independencia de si el medio firmó o no un acuerdo.</strong></p><p>Frente a esta asimetría, CEDRO y la Asociación de Medios de Información (AMI) defienden la gestión colectiva: ningún autor individual puede negociar con las grandes plataformas en condiciones de igualdad, pero <strong>una entidad que agrupa a miles de creadores sí puede.</strong> El <em>informe Voss</em> respalda esta vía al pedir que la EUIPO apoye mercados de licencias sectoriales con participación de entidades de gestión colectiva. CEDRO defiende además que el contenido no se use salvo que el medio lo autorice expresamente. Porque una vez que los contenidos han entrado en el corpus de entrenamiento, <strong>no existe mecanismo técnico para retirarlos.</strong> El permiso que no se pidió al principio se puede solicitar retroactivamente, pero no sirve para nada.</p><p>Lo que está en juego no es solo una cuestión de derechos de autor. Es si el periodismo local, el especializado, el de investigación —el que no puede permitirse un equipo jurídico ni una ronda de negociación en San Francisco— va a poder seguir existiendo en un ecosistema donde su trabajo <strong>alimenta sistemas que no le pagan</strong> y que le quitan tráfico. El <em>informe Voss </em>dice que no debería ser así. El mercado, por ahora, alimenta lo contrario.</p><p>Y mientras las directivas maduran en Bruselas, los corpus de entrenamiento están cerrados, los modelos de IA desplegados y los contenidos de miles de redacciones que nunca han recibido —ni recibirán— una llamada de las grandes empresas tecnológicas ya forman parte de la inteligencia artificial que hoy compite con ellas. En la mayoría de los debates sobre <em>copyright</em>, el daño está por venir. Aquí el daño ya se produjo, pero sigue teniendo lugar. Lo que se negocia ahora no es el futuro: es si alguien va a pagar, y a quién, por lo que ya ocurrió. Y por lo que está pasando cada día.</p>]]></description>
      <guid isPermaLink="false"><![CDATA[56c1f86d-52bc-48ac-b5c1-98f010dd5c2c]]></guid>
      <pubDate><![CDATA[Tue, 17 Mar 2026 20:10:52 +0000]]></pubDate>
      <author><![CDATA[Fernando Varela]]></author>
      <enclosure url="https://static.infolibre.es/clip/71574985-cad7-455f-abba-847749599e89_16-9-aspect-ratio_default_0.jpg" length="92339" type="image/jpeg"/>
      <media:content url="https://static.infolibre.es/clip/71574985-cad7-455f-abba-847749599e89_16-9-aspect-ratio_default_0.jpg" type="image/jpeg" fileSize="92339" width="1200" height="675"/>
      <media:title><![CDATA[Los gigantes de la IA tratan de sortear la regulación europea pactando con grandes grupos de comunicación]]></media:title>
      <media:thumbnail url="https://static.infolibre.es/clip/71574985-cad7-455f-abba-847749599e89_16-9-aspect-ratio_default_0.jpg" width="1200" height="675"/>
      <media:keywords><![CDATA[Inteligencia artificial,Meta,ChatGPT,Google,Comisión Europea,Parlamento Europeo,Medios comunicación]]></media:keywords>
    </item>
    <item>
      <title><![CDATA[Ciencia, industria y competitividad en España]]></title>
      <link><![CDATA[https://www.infolibre.es/opinion/plaza-publica/ciencia-industria-competitividad-espana_129_2160601.html]]></link>
      <description><![CDATA[<p><img src="https://static.infolibre.es/clip/10f16eab-d850-4e96-8e65-fd28c2364930_16-9-discover-aspect-ratio_default_0.jpg" width="1200" height="675" alt="Ciencia, industria y competitividad en España"></p><p>La evaluación del sistema español de ciencia y tecnología es objeto de análisis dinámicos por parte de la <strong>Fundación Alternativas</strong> desde hace años. Este año se ha presentado el quinto informe. En él se han plasmado las predicciones de informes anteriores. Los <strong>drásticos cambios en el sistema internacional, </strong>con la irrupción de nuevos agentes en la toma de decisiones: las grandes tecnológicas, China y los actores secundarios, Rusia, la Unión Europea y los países gigantes emergentes, Brasil, India y Turquía, <strong>amenazan la tradicional supremacía norteamericana,</strong> vigente desde el fin de la Segunda Guerra Mundial. ¿Quién va a convertirse en el principal suministrador de las nuevas tecnologías? La IA, biotecnología, telecomunicaciones, software y materiales innovadores, entre otras áreas de ciencia, se han convertido en un <strong>campo de competencia</strong> y, sobre todo, <strong>van a definir quién tiene independencia tecnológica</strong> y quién va a ser <strong>comprador y vendedor</strong> de innovación en los próximos años en el mundo. Los avances científico/tecnológicos se han convertido en la base de una pugna, no amistosa, con episodios de guerra fría y caliente. El salto del<strong> desarrollo científico-tecnológico, </strong>tanto académico como industrial, a la <strong>geopolítica </strong>ya es un hecho consumado.</p><p>En España, con todas las dificultades que haya, que las hay, tenemos una serie de áreas científicas con un desarrollo equiparable al de nuestros socios competidores de la UE, y podemos ayudar a que Europa pueda competir en la pelea que se ha desatado, dentro del pelotón de la carrera, por <strong>el dominio industrial de los próximos años.</strong> Las comunicaciones, la biotecnología, sanitaria y agroalimentaria, los nuevos materiales para semiconductores, el software y la IA, entre otras, son áreas estratégicas en las que España puede competir con nuestros vecinos europeos, ayudándolos, a la vez, a tener una <strong>presencia en la competición internacional, </strong>fundamentalmente la chino-norteamericana. Por otra parte, el intento ruso de recuperar la política exterior de la extinta URSS y del Imperio de los zares, pero con una<strong> tecnología más retrasada </strong>y un arsenal atómico heredado, los convierte en más peligrosos. En ese esfuerzo europeo se hace necesario reorientar los objetivos estratégicos hacia la seguridad, ante el aparente agotamiento del dividendo de la paz en el que se habría sustentado el modelo vigente hasta hace muy poco tiempo. </p><p>Vivimos momentos en los que <strong>preservar la seguridad </strong>implica <strong>atender a la defensa convencional, </strong>y también a la amenaza híbrida, por lo que el desarrollo de una mayor capacidad de defensa en la UE y en España implica revisar cómo disminuir la dependencia científico-tecnológica y qué implicaciones tiene el uso de, por ejemplo, <strong>la inteligencia artificial en la industria,</strong> para aumentar la soberanía e independencia. Esto no puede hacerse sin una base científica sólida, acompañada de una relación estable entre la investigación pública (universidades y OPIs) y la industria, bien de base biotecnológica como la farmacéutica, de nuevos materiales, base de los semiconductores avanzados o de cualquier otro tipo. <strong>Desde las comunicaciones al desarrollo de vacunas </strong>para prevenir las enfermedades que están volviendo a aparecer en Europa por la<strong> subida geográfica </strong>de los vectores, desde las zonas más cálidas, cerca del Ecuador, debido al aumento global de las temperaturas. Las enfermedades víricas como las producidas por el zika, el dengue, la fiebre del Nilo Occidental o la fiebre amarilla, entre otras, <strong>están volviendo a las zonas de donde fueron erradicadas </strong>hace más de un siglo (Europa. Caribe, EEUU, Australia, Canadá, etc.). Resulta una obviedad decir que <strong>hay que investigar los mecanismos de estas patologías</strong> para poder prevenirlas y conseguir vacunas o mejorar las que hay. Como que hay que dedicar esfuerzos a las resistencias frente a los antibióticos o a la protección de las cosechas o a los chips de grafeno (¿sabe alguien que estamos muy avanzados en los estudios sobre este nuevo material?). En conjunto, debemos entrar, y tenemos los mimbres para hacerlo, en la<strong> primera división de la investigación</strong> y el desarrollo europeo en varias áreas de interés estratégico, y ayudar a Europa a tener una voz en el nuevo mundo con reglas imperiales de vasallaje que nos quieren imponer. </p><p><strong>¿Estamos preparados para dar este salto cualitativo?</strong> Muchos laboratorios públicos sí. <strong>Los responsables políticos no.</strong> Los gastos en I+D han estado basados durante los últimos años en el empleo de fondos europeos que ya se terminan. Con los presupuestos nacionales, sin un plan especial de desarrollo, es prácticamente imposible. Todavía más grave es la<strong> falta de planes de movilización </strong>de las áreas estratégicas: telecomunicaciones, IA, software, nuevos materiales, biotecnología, etc. <strong>No es suficiente </strong>con los programas actuales. Se trata de eso, de “movilizar efectivos”, bien españoles o extranjeros que den un salto adelante, en las áreas correspondientes. Facilitarles la vida a los cerebros repescados, no solo darles un sueldo, después de una exigente selección. <strong>Hay que darles algo más que laboratorios vacíos.</strong> Proyectos de iniciación y facilitar que vengan equipos completos. Estas acciones no representarían un gasto inabordable (cuestan menos que el precio de una escuadrilla de aviones modernos) para el Estado. Esto es tanto para el gobierno central como para los de las CCAA. </p><p>Hay que modificar, de una vez por todas, la gestión esclerosada de mediados del siglo veinte que es incapaz de ayudar al sistema de ciencia y tecnología a desarrollarse. <strong>Dejar los manguitos y la pluma por el ordenador, </strong>aunque, aparentemente, los tengan. Pero, lo primero es tener planes a medio plazo que no parece ser el caso en los responsables de la I+D en España. Hay que crear (¡¡todavía a estas alturas!!) una <strong>relación fácil con las empresas </strong>que van a necesitar una conexión fuerte con las universidades y los OPIs para hacer frente a los retos inmediatos. Y, de forma esencial, tenemos que creernos que el sistema español de I+D+i puede tener una<strong> voz importante en unas cuantas áreas estratégicas en Europa.</strong> La UE tiene problemas de liderazgo, pero los países grandes, y España lo es, tienen la<strong> obligación de ponerse en marcha,</strong> arrastrando al resto, para no ser excluidos por los imperios que quieren adueñarse del futuro de la innovación y la influencia social. Nos jugamos no solo la independencia en la innovación, sino también la<strong> pervivencia de los valores democráticos</strong> que están siendo puestos en peligro por los imperios nacientes. Sin complejos, como ellos dicen.</p><p>_____________________________________</p><p><em><strong>Vicente Larraga</strong></em><em> es profesor de Investigación “ad Honorem” del CSIC y analista de la Fundación Alternativas. </em></p>]]></description>
      <guid isPermaLink="false"><![CDATA[b5774eda-eb82-4eb1-b0c9-3e0d1805c540]]></guid>
      <pubDate><![CDATA[Mon, 16 Mar 2026 05:00:53 +0000]]></pubDate>
      <author><![CDATA[Vicente Larraga]]></author>
      <enclosure url="https://static.infolibre.es/clip/10f16eab-d850-4e96-8e65-fd28c2364930_16-9-discover-aspect-ratio_default_0.jpg" length="74689" type="image/jpeg"/>
      <media:content url="https://static.infolibre.es/clip/10f16eab-d850-4e96-8e65-fd28c2364930_16-9-discover-aspect-ratio_default_0.jpg" type="image/jpeg" fileSize="74689" width="1200" height="675"/>
      <media:title><![CDATA[Ciencia, industria y competitividad en España]]></media:title>
      <media:thumbnail url="https://static.infolibre.es/clip/10f16eab-d850-4e96-8e65-fd28c2364930_16-9-discover-aspect-ratio_default_0.jpg" width="1200" height="675"/>
      <media:keywords><![CDATA[Opinión,Inteligencia artificial,Tecnología digital,Ciencia,Medios comunicación]]></media:keywords>
    </item>
    <item>
      <title><![CDATA[La UE respalda la iniciativa de España para prohibir los 'deepfakes' sexuales]]></title>
      <link><![CDATA[https://www.infolibre.es/union-europea/ue-respalda-iniciativa-espana-prohibir-deepfakes-sexuales_1_2161564.html]]></link>
      <description><![CDATA[<p><img src="https://static.infolibre.es/clip/6c771b5b-89b2-4cc1-ad51-022ed310950f_16-9-aspect-ratio_default_0.jpg" width="1200" height="675" alt="La UE respalda la iniciativa de España para prohibir los 'deepfakes' sexuales"></p><p><a href="https://www.infolibre.es/temas/espana/" target="_blank" >España</a> ha logrado que la <a href="https://www.infolibre.es/temas/union-europea/" target="_blank" >Unión Europea</a> respalde su propuesta para prohibir los sistemas de <a href="https://www.infolibre.es/temas/inteligencia-artificial/" target="_blank" >inteligencia artificial</a> que generan<strong> </strong><em><strong>deepfakes</strong></em> de contenido íntimo <strong>sin consentimiento</strong> o material de <strong>abuso sexual infantil</strong>. La decisión viene después de la polémica sucedida el pasado <strong>enero</strong> por los desnudos falsos de <strong>mujeres y menores</strong> creados con el asistente virtual Grok, de la red social<a href="https://www.infolibre.es/temas/twitter/" target="_blank" > X</a>. La iniciativa española encontró apoyo en países como <a href="https://www.infolibre.es/temas/francia/" target="_blank" >Francia</a> —<strong>que presentó medidas similares</strong>—, <a href="https://www.infolibre.es/temas/alemania/" target="_blank" >Alemania</a>, <a href="https://www.infolibre.es/temas/irlanda/" target="_blank" >Irlanda</a>, <a href="https://www.infolibre.es/temas/eslovenia/" target="_blank" >Eslovenia</a>, <a href="https://www.infolibre.es/temas/belgica/" target="_blank" >Bélgica</a>, <a href="https://www.infolibre.es/temas/eslovaquia/" target="_blank" >Eslovaquia</a> y <a href="https://www.infolibre.es/temas/hungria/" target="_blank" >Hungría</a>, consolidando así una mayoría para <strong>endurecer las normas sobre IA. </strong></p><p>El Consejo de la UE, <strong>reunido este viernes en Bruselas</strong>, ha aprobado la posición de los gobiernos europeos para negociar con el Parlamento la <strong>reforma de la ley de inteligencia artificial</strong>. Esta propuesta forma parte del paquete legislativo <strong>'Omnibus VII'</strong>, que busca simplificar el marco regulatorio digital europeo y <strong>facilitar la aplicación de reglas armonizadas sobre IA. </strong></p><p>Entre las medidas aprobadas, se <strong>prohíben</strong> los sistemas capaces de <strong>generar, manipular o reproducir imágenes, vídeos o audios</strong> realistas de partes íntimas de una persona <strong>sin su consentimiento</strong>, así como aquellos diseñados para crear o difundir <strong>pornografía infantil</strong>. La decisión cierra el paso a tecnologías como las utilizadas en el caso <strong>Grok</strong> y busca adelantarse a un problema creciente, como es la fabricación de contenidos sexuales <strong>falsos con apariencia realista</strong>, que pueden dañar gravemente a las víctimas. </p><p>El acuerdo incluye además otras propuestas españolas, como mantener la obligación de registrar en la base de datos europea <strong>los sistemas de alto riesgo</strong>, incluso cuando sus proveedores aleguen estar exentos, y aplicar criterios <strong>estrictos</strong> para procesar datos sensibles, garantizando la detección y <strong>corrección de sesgos en los algoritmos</strong>. También se han fijado plazos claros para la entrada en vigor de las normas sobre sistemas de <strong>alto riesgo.</strong> <strong>Diciembre de 2027</strong> para los sistemas independientes y <strong>agosto de 2028</strong> para los integrados en productos. </p><p>El paquete busca, al mismo tiempo, <strong>simplificar la aplicación de las reglas y reducir la carga administrativa</strong> para las empresas tecnológicas, ofreciendo mayor seguridad jurídica y una implementación más armonizada en <strong>toda la UE</strong>. <strong>Se amplían algunas exenciones</strong> para pequeñas y medianas empresas, se <strong>fortalecen</strong> las funciones de la Oficina de IA y se aclaran las responsabilidades de supervisión <strong>para asegurar un control efectivo</strong>.</p><p>Tras la aprobación de esta posición, la presidencia de turno de la UE iniciará los trílogos con el <a href="https://www.infolibre.es/temas/parlamento-europeo/" target="_blank" >Parlamento Europeo</a> a comienzos de <strong>abril</strong>, con el objetivo de cerrar el <strong>texto definitivo</strong> de la reforma. La iniciativa persigue reforzar la competitividad digital europea, facilitar la innovación y, al mismo tiempo, establecer <strong>límites claros al uso de la inteligencia artificial</strong>, protegiendo derechos fundamentales y la seguridad de los ciudadanos. </p>]]></description>
      <guid isPermaLink="false"><![CDATA[c0a2e22c-e71f-4edb-bb90-ba2a85447018]]></guid>
      <pubDate><![CDATA[Fri, 13 Mar 2026 17:11:17 +0000]]></pubDate>
      <author><![CDATA[infoLibre]]></author>
      <enclosure url="https://static.infolibre.es/clip/6c771b5b-89b2-4cc1-ad51-022ed310950f_16-9-aspect-ratio_default_0.jpg" length="2563139" type="image/jpeg"/>
      <media:content url="https://static.infolibre.es/clip/6c771b5b-89b2-4cc1-ad51-022ed310950f_16-9-aspect-ratio_default_0.jpg" type="image/jpeg" fileSize="2563139" width="1200" height="675"/>
      <media:title><![CDATA[La UE respalda la iniciativa de España para prohibir los 'deepfakes' sexuales]]></media:title>
      <media:thumbnail url="https://static.infolibre.es/clip/6c771b5b-89b2-4cc1-ad51-022ed310950f_16-9-aspect-ratio_default_0.jpg" width="1200" height="675"/>
      <media:keywords><![CDATA[Unión Europea,Inteligencia artificial,España]]></media:keywords>
    </item>
  </channel>
</rss>
