<?xml version="1.0" encoding="UTF-8"?>
<rss xmlns:media="http://search.yahoo.com/mrss/" xmlns:dc="http://purl.org/dc/elements/1.1/" xmlns:atom="http://www.w3.org/2005/Atom" version="2.0">
  <channel>
    <title><![CDATA[infoLibre - Ley protección datos]]></title>
    <link><![CDATA[https://www.infolibre.es/temas/ley-proteccion-datos/]]></link>
    <description><![CDATA[infoLibre - Ley protección datos]]></description>
    <language><![CDATA[es]]></language>
    <copyright><![CDATA[Copyright infoLibre]]></copyright>
    <ttl>10</ttl>
    <item>
      <title><![CDATA[La mayoría de los españoles quiere más regulación digital y aceptaría renunciar al anonimato para conseguirla]]></title>
      <link><![CDATA[https://www.infolibre.es/medios/mayoria-espanoles-quiere-regulacion-digital-aceptaria-renunciar-anonimato-conseguirla_1_2192146.html]]></link>
      <description><![CDATA[<p><img src="https://static.infolibre.es/clip/f5ec4f76-690a-49ae-afdd-422a9b0a87f4_16-9-aspect-ratio_default_0.jpg" width="1200" height="675" alt="La mayoría de los españoles quiere más regulación digital y aceptaría renunciar al anonimato para conseguirla"></p><p>La ciudadanía española quiere más regulación digital y está dispuesta a pagar el precio que supuestamente eso implica para lograr algunas libertades. La primera encuesta sobre percepción social de los derechos digitales en España, presentada este miércoles en el <strong>I Encuentro Internacional por los Derechos Digitales</strong> organizado por el Gobierno de España y Mobile World Capital Barcelona y que ha comenzado este miércoles en la capital catalana, arroja un retrato coherente y algo incómodo: la población exige protección, pero el instrumento que prefiere para lograrlo —la identificación obligatoria en internet— afecta directamente al anonimato en línea.</p><p>El estudio, impulsado por el <strong>Observatorio de Derechos Digitales</strong> y elaborado a partir de una encuesta cuantitativa a 2.500 ciudadanos a la que se ha sumado un componente cualitativo, recoge respuestas obtenidas entre el 20 de octubre y el 9 de diciembre de 2025, antes de que el presidente del Gobierno, Pedro Sánchez, <a href="https://www.infolibre.es/politica/sanchez-anuncia-espana-prohibira-acceder-redes-sociales-menores-16-anos_1_2138723.html" target="_blank">apostase</a> públicamente por restringir el acceso de los menores a las redes sociales, contribuyendo así a impulsar un movimiento que ya alcanza a diez países europeos, incluidos Francia, Polonia o Dinamarca. Es, según sus promotores, el primer análisis sistemático del conocimiento y las actitudes de la población española frente a los derechos en el entorno digital.</p><p>La cifra que estructura toda la encuesta es esta: el <strong>69% de los encuestados</strong> considera que los derechos digitales están insuficientemente protegidos. No es una valoración abstracta. Cuando se desglosa por nivel de estudios, la sensación de vulnerabilidad en internet afecta al 69% de quienes tienen únicamente educación obligatoria, frente al 35% de quienes tienen educación superior. La brecha educativa no solo separa a quienes saben usar la tecnología de quienes no: también separa a quienes se sienten expuestos de quienes no.</p><p>Los principales riesgos identificados son la privacidad y el control de <a href="https://www.infolibre.es/politica/400-sanciones-45-millones-cuatro-anos-reglamento-proteccion-datos-espana_1_1236029.html" target="_blank">datos personales, </a>citados por el 48% de los encuestados, y las estafas y robos, con idéntico porcentaje. A mayor distancia aparecen la suplantación de identidad (30%), el acceso a información falsa (25%) y el acoso, hostigamiento e insultos (19%). Este último dato tiene una lectura generacional relevante: el <strong>33% de los jóvenes entre 18 y 29 años</strong> afirma haber sido víctima de acoso en internet, una cifra que convierte el problema en algo bastante más extendido que una anécdota.</p><p>Ante la pregunta de qué ámbitos deben tener cobertura legal, los encuestados muestran un consenso amplio y consistente. La privacidad y protección de datos lidera con un 96% de respaldo. La protección frente al acoso, los mensajes de odio y la difamación en plataformas digitales alcanza el 94%. El <strong>derecho al </strong><a href="https://www.infolibre.es/politica/proteccion-datos-multa-google-10-millones-no-respetar-derecho-olvido_1_1235095.html" target="_blank"><strong>olvido digital</strong></a> —el borrado de información personal disponible en internet— es reivindicado por el 89%, y el acceso asequible a internet por el 81%.</p><p>Más allá de los derechos fundamentales, la encuesta también recoge posiciones sobre el funcionamiento técnico de las plataformas. El 76% considera que la libertad de expresión digital debe estar protegida por ley; el 73% pide algoritmos no discriminatorios; y el 72% reclama el derecho a que un humano revise las decisiones tomadas de forma automatizada. Este último punto tiene implicaciones directas para el debate europeo sobre inteligencia artificial, en un momento en que el Reglamento de IA de la UE está en fase de <a href="https://www.infolibre.es/economia/bruselas-quiere-retrasar-partes-ley-inteligencia-artificial_1_2094227.html" target="_blank">aplicación</a> progresiva.</p><p>Sobre quién debe garantizar esos derechos, la ciudadanía señala en primer lugar a las <strong>administraciones públicas</strong> (45%) y en segundo lugar a las <strong>empresas tecnológicas</strong> (39%). La atribución de responsabilidad al sector privado es notable, aunque los propios encuestados tienen sobre él una opinión ambivalente: el 88% cree que las tecnológicas acumulan demasiado poder económico y el 85% considera que concentran demasiada información personal, pero el 64% les atribuye una actividad beneficiosa.</p><p>Un dato especialmente relevante de la encuesta afecta a una de las señas de identidad de la red. Ante la pregunta de cómo debe organizarse la participación en el espacio digital, el <strong>71%</strong> se decanta por<strong> la identificación obligatoria </strong>en redes sociales y foros. Solo el 24% defiende la participación anónima.</p><p>La cifra es muy abultada. El <a href="https://www.infolibre.es/opinion/plaza-publica/anonimato-libertad-expresion-delitos-odio_129_1938648.html" target="_blank">anonimato</a> en internet siempre se ha considerado algo más que una cuestión de comodidad, en parte con el argumento de que en algunos casos es el mecanismo que permite a periodistas, activistas, víctimas de violencia o disidentes políticos actuar sin exponerse a represalias. Pero también es el <strong>escudo de invisibilidad </strong>que muchos utilizan para insultar, acosar, difundir bulos o incluso cometer delitos. </p><p>Que casi tres cuartas partes de la población española prefieran un modelo de identidad obligatoria revela hasta qué punto el discurso sobre la seguridad en red y la necesidad de <strong>poner freno a la impunidad </strong>que acompaña el anonimato ha desplazado al que defiende la libertad digital absoluta como extensión maximalista de los derechos civiles.</p><p>Si hay un tema donde la encuesta no deja margen de duda es en la protección de los menores. El <strong>95%</strong> considera que los menores están poco o nada seguros en el entorno digital. El respaldo a medidas concretas es igualmente contundente: el control parental cuenta con el apoyo del 96%; la implantación de una edad mínima para el uso de <em>smartphones</em>, del 91%; y la regulación de la publicidad dirigida a menores, del 96%.</p><p>Son porcentajes que cruzan cualquier<strong> línea ideológica</strong> y que sitúan este asunto en una posición singular dentro del debate político: hay muy pocas propuestas de regulación digital que puedan presumir de ese nivel de acuerdo ciudadano. El dato llega, además, en un momento en que varios países europeos y algunas comunidades autónomas españolas discuten activamente restricciones de edad para el acceso a redes sociales.</p><p>La encuesta también mide la percepción sobre la<strong> inteligencia artificial,</strong> y el resultado es coherente con la desconfianza general hacia las tecnologías de gran escala. El <strong>77%</strong> pide más regulación de la IA y el <strong>56%</strong> preferiría que su desarrollo se ralentice. Solo el 49% cree que la inteligencia artificial tendrá efectos positivos para personas como ellas.</p><p>Es una mayoría escéptica, aunque no apocalíptica. La demanda de regulación está por encima de la demanda de freno: la ciudadanía no quiere necesariamente detener el desarrollo tecnológico, pero sí que alguien ponga normas antes de que el daño esté hecho.</p><p>El informe dedica un apartado específico a la alfabetización digital en materia de derechos. El resultado es ilustrativo de una paradoja habitual en estos estudios: siete de cada diez ciudadanos han oído hablar del término “derechos digitales”, pero el <strong>28%</strong> no sabría explicar en qué consisten. Conocen la etiqueta, no necesariamente el contenido.</p><p>La brecha de competencias digitales sigue trazándose a lo largo de los mismos ejes que otras brechas sociales. Nueve de cada diez ciudadanos de entre 18 y 44 años consideran que la tecnología digital es fácil de usar. Entre los <strong>mayores</strong> de 60 años, esa percepción cae al 46%. Entre quienes tienen niveles de <strong>estudios</strong> más bajos, al 44%, especialmente en tareas de relativa complejidad como los trámites administrativos en línea.</p><p>La digitalización de las administraciones públicas acusa esta fractura con datos concretos. Entre el 70% y el 80% de la población de 18 a 59 años afirma que les ha facilitado la vida. Entre los mayores de 60, esa valoración positiva desciende al 49%. Y el 40% de ese grupo de edad considera que los trámites digitales con los servicios públicos les dificultan la vida. Un sistema diseñado para ser más eficiente ha resultado <strong>menos accesible</strong> para una parte significativa de la población.</p><p><strong>El medio de los jóvenes, el medio del bulo</strong></p><p>La encuesta incorpora también datos sobre hábitos informativos y desinformación. Hasta los 29 años, las <a href="https://www.infolibre.es/medios/no-algoritmo-han-abandonado-definitivamente-noticias-jovenes_1_2167323.html" target="_blank">redes sociales</a> son el primer medio para informarse, con un 55% de preferencia. A medida que aumenta la edad, otros medios ganan peso.</p><p>Esa preferencia tiene su correlato en la percepción sobre dónde circulan las llamadas <strong>noticias falsas:</strong> el 88% señala a las redes sociales como el entorno donde más se difunden. El 86% las identifica también como el principal canal de difusión de discursos de odio.</p><p>Frente a eso, en una afirmación que mueve al escepticismo, el 78% afirma verificar habitualmente el contenido que consume en internet, ya sea recurriendo a otras fuentes dentro de la propia red (53%) o a fuentes externas (25%). Apenas el <strong>18%</strong> admite no comprobar la veracidad de lo que lee. En una encuesta sobre derechos digitales, esa cifra tiene el valor añadido de ser, también, una medida indirecta del alcance potencial de la desinformación.</p>]]></description>
      <guid isPermaLink="false"><![CDATA[b43159c1-8af6-4672-bae1-daabedef7a21]]></guid>
      <pubDate><![CDATA[Wed, 13 May 2026 09:41:08 +0000]]></pubDate>
      <author><![CDATA[Fernando Varela]]></author>
      <enclosure url="https://static.infolibre.es/clip/f5ec4f76-690a-49ae-afdd-422a9b0a87f4_16-9-aspect-ratio_default_0.jpg" length="6021947" type="image/jpeg"/>
      <media:content url="https://static.infolibre.es/clip/f5ec4f76-690a-49ae-afdd-422a9b0a87f4_16-9-aspect-ratio_default_0.jpg" type="image/jpeg" fileSize="6021947" width="1200" height="675"/>
      <media:title><![CDATA[La mayoría de los españoles quiere más regulación digital y aceptaría renunciar al anonimato para conseguirla]]></media:title>
      <media:thumbnail url="https://static.infolibre.es/clip/f5ec4f76-690a-49ae-afdd-422a9b0a87f4_16-9-aspect-ratio_default_0.jpg" width="1200" height="675"/>
      <media:keywords><![CDATA[Redes sociales,Ley protección datos,Tecnología digital,Menores]]></media:keywords>
    </item>
    <item>
      <title><![CDATA[¿Cuánto vales para Google? La subasta invisible que decide que tu atención es 577 veces más valiosa que otra]]></title>
      <link><![CDATA[https://www.infolibre.es/medios/vales-google-subasta-invisible-decide-atencion-577-veces-valiosa_1_2189522.html]]></link>
      <description><![CDATA[<p><img src="https://static.infolibre.es/clip/a07ba76e-90f0-4175-8e38-fb022e9b8598_16-9-aspect-ratio_default_0.jpg" width="1200" height="675" alt="¿Cuánto vales para Google? La subasta invisible que decide que tu atención es 577 veces más valiosa que otra"></p><p>Un usuario estadounidense medio genera para <strong>Google</strong> unos ingresos publicitarios anuales de <strong>1.605 dólares</strong>, pero esta cifra oculta una brecha de valoración de hasta 577 veces entre distintos perfiles. El ecosistema publicitario no trata a todos los individuos por igual porque su arquitectura está diseñada para detectar quién tiene mayor probabilidad de gastar dinero en tiempo real. </p><p>Esta disparidad no es una anomalía del sistema, sino que constituye <strong>el corazón de su modelo de negocio, </strong>basado en la extracción de la experiencia humana. Si algo es gratis, y Google nos ofrece servicios que aparentemente no tienen coste, nosotros nos convertimos en el producto.</p><p>La determinación de lo que una persona vale para un anunciante ocurre en milésimas de segundo mediante cálculos algorítmicos ejecutados en cada búsqueda. <strong>Google Ads</strong> emplea un sistema de subasta de segundo precio modificado donde la puja económica de las empresas es solo una de las variables que deciden el éxito de un impacto. El mecanismo técnico central se denomina <strong>Ad Rank</strong> o ranking del anuncio, y combina la puja máxima del anunciante con el denominado Nivel de Calidad.</p><p>El <strong>Nivel de Calidad</strong> es la tasación que la plataforma hace de la adecuación del usuario a un anuncio determinado. Este indicador se construye sobre tres pilares fundamentales: el porcentaje de clics esperado, la relevancia del mensaje y la experiencia en la página de destino. La plataforma recompensa a los anunciantes que ofrecen una mejor experiencia con costes más bajos, lo que demuestra que la atención sostenida es el activo más valioso a proteger.</p><p>La <a href="https://drive.proton.me/urls/ZEW51DB8NM#fHbOnuoATY0v" target="_blank">investigación</a> de la firma europea de servicios digitales <strong>Proton,</strong> basada en el análisis de 54.216 perfiles demográficos de Estados Unidos, muestra variaciones extremas en esta tasación. El usuario más valioso identificado en el estudio alcanza un precio de <strong>17.929 dólares</strong> anuales frente a los apenas <strong>31 dólares</strong> que se pagan por el perfil menos atractivo. Esta diferencia abismal responde a señales que predicen la probabilidad de una acción comercialmente rentable en el corto plazo.</p><p>Dos perfiles tipo ilustran perfectamente esta desigualdad estructural. El primero corresponde a un hombre de entre 35 y 44 años residente en <strong>Bozeman (Montana) </strong>que realiza búsquedas de alta intención, como pueden ser la contratación de servicios legales o la renovación de hogares. </p><p>El segundo perfil es un joven de entre 18 y 24 años residente en<strong> Fort Smith (Arkansas)</strong> que busca pañales baratos y ropa infantil de bajo coste. El sistema asigna al primer individuo un valor quinientas veces superior por su mayor capacidad adquisitiva y urgencia de necesidad.</p><p>Bozeman y Fort Smith —en España serían, por ejemplo, Málaga y Puertollano— representan <strong>dos realidades opuestas del </strong><em><strong>sueño americano.</strong></em><em> </em>Mientras Bozeman se ha consolidado como un enclave de élite para el sector tecnológico y el ocio de montaña de alto nivel, con una población joven, altamente educada y con un poder adquisitivo que ha disparado los precios de la vivienda, Fort Smith mantiene un perfil obrero y tradicional, basado en la industria manufacturera y los servicios, con uno de los costos de vida más bajos del país.</p><p>Así, el residente de Bozeman suele ser un profesional con movilidad económica atraído por la proximidad a centros de esquí y universidades, lo que ha causado una gentrificación extrema. Por el contrario, el habitante de Fort Smith pertenece a una <strong>clase media-baja </strong>más estable, pero con ingresos limitados, donde la prioridad es la asequibilidad.</p><p>La edad también es uno de los factores más determinantes en el valor publicitario potencial de una persona. El valor alcanza su cenit entre los 25 y los 44 años porque es el periodo en el que se toman <strong>las decisiones financieras más importantes.</strong> En esta etapa se concentran las compras de alto valor y la contratación de servicios de carrera profesional, lo que multiplica el interés de los anunciantes.</p><p>Hasta el tipo de dispositivo utilizado funciona como un indicador de la capacidad de compra de cada individuo. Los usuarios de ordenadores de escritorio <em>valen </em>de media <strong>2.894 dólares</strong> anuales, lo que supone casi cinco veces más que un usuario de <strong>Android</strong>. Esta diferencia refleja comportamientos observados donde las tasas de conversión y la intención comercial son tradicionalmente más altas en equipos de escritorio que en entornos móviles casuales.</p><p>La maquinaria publicitaria de Google utiliza el sistema operativo del móvil como un indicador de estatus financiero, valorando a <strong>un usuario de iPhone </strong>en 1.338 dólares anuales, más del doble que uno de Android. Mediante el análisis de variables como el modelo del dispositivo o el código postal, la plataforma infiere la capacidad de gasto y la probabilidad de compra en milisegundos, convirtiendo el terminal en un filtro que segmenta a los ciudadanos entre clientes <em>premium </em>o perfiles de menor valor comercial.</p><p>Del mismo modo,<strong> la paternidad</strong> influye negativamente en la valoración que el sistema hace de los usuarios, según los datos recopilados por Proton. Las personas sin hijos <em>valen </em>de media un 17% más que quienes son padres. Esta brecha de valoración se incrementa hasta el 34% durante los años de mayor capacidad de generación de ingresos. Tener descendencia reduce el valor comercial percibido por el sistema al desplazar el gasto hacia categorías de menor margen de beneficio.</p><p>En el contexto de <strong>Europa</strong>, la valoración económica sigue patrones distintos debido a la menor saturación publicitaria y la fuerte regulación de la privacidad. El coste por clic promedio en <strong>España</strong> se sitúa en los <strong>0,85 euros</strong>, con rangos que oscilan entre los 30 céntimos y los dos euros. Esta cifra es sensiblemente inferior a los <strong>3,20 dólares</strong> de media que se pagan en los Estados Unidos, donde la competencia es extrema.</p><p>La <a href="https://www.infolibre.es/medios/gobierno-quiere-app-limitara-internet-menores-operativa-termine-ano_1_2179298.html" target="_blank">regulación</a> europea encabezada por el <strong>Reglamento General de Protección de Datos</strong> ha endurecido las condiciones bajo las que operan estos algoritmos de tasación. El artículo 22 de esta norma establece el derecho de los ciudadanos a no ser objeto de decisiones basadas únicamente en tratamientos automatizados que les afecten significativamente. La <strong>Agencia Española de Protección de Datos</strong> ha sido pionera en sancionar prácticas de gestión algorítmica opacas, como ocurrió en el caso de la plataforma <a href="https://www.infolibre.es/temas/glovo/" target="_blank"><strong>Glovo</strong></a>.</p><p>No obstante, y a pesar de estas protecciones legales, el valor de un usuario en industrias específicas puede dispararse hasta niveles asombrosos. En sectores como los servicios legales o los seguros, el coste de un solo clic puede superar los 100 dólares si el algoritmo identifica una alta probabilidad de cierre de contrato. Un clic de 15 dólares que genera un contrato de 10.000 dólares es<strong> infinitamente más rentable</strong> para el sistema que un impacto barato que no produce conversión.</p><p>Uno de los puntos más controvertidos de estas prácticas es el tratamiento de categorías de datos sensibles como <strong>la raza, el género, la religión o la orientación sexual. </strong>La política oficial de Google prohíbe explícitamente a los anunciantes utilizar esta información para personalizar anuncios. Las restricciones se aplican con especial rigor en las categorías de acceso a oportunidades, que incluyen la vivienda, el empleo y el crédito, para evitar exclusiones históricas.</p><p>Pero el problema fundamental no reside en lo que la plataforma sabe de forma directa sino en lo que el algoritmo puede inferir mediante variables aparentemente neutras. Diversas investigaciones académicas han demostrado que el historial de navegación o los intereses básicos pueden predecir atributos sensibles<strong> </strong>con una precisión asombrosa. Un modelo algorítmico <strong>puede identificar el origen étnico de una persona con un 95% de acierto</strong> o su orientación sexual con un 88%.</p><p>Esta capacidad de inferencia estadística utiliza variables sustitutas para saltarse las prohibiciones políticas. El <a href="https://www.infolibre.es/politica/no-son-listos-mejores-oportunidades-pisa-revela-vez-peso-entorno-notas-alumnado_1_1658169.html" target="_blank">código postal,</a> por ejemplo, puede funcionar como un <em>proxy</em> —un dato que se utiliza para representar un valor que es difícil de medir directamente— del nivel socioeconómico o de la etnia, del mismo modo que los nombres propios suelen ser predictores fiables del <strong>género. </strong></p><p>El problema es que el riesgo de discriminación no desaparece con la prohibición de categorías sensibles, sino que se desplaza hacia la opacidad del <strong>modelo de </strong><em><strong>caja negra,</strong></em><strong> </strong>un sistema que te da un resultado pero oculta cómo ha llegado a él, haciendo que su funcionamiento interno sea invisible e imposible de explicar incluso, a veces, para sus propios creadores.</p><p>Un estudio realizado por las investigadoras <strong>Anja Lambrecht y Catherine Tucker</strong> y publicado en marzo de 2018 sobre anuncios de empleo en campos tecnológicos reveló este sesgo económico invisible. Su investigación constituye el pilar académico que despojó de su apariencia de neutralidad a las subastas publicitarias automatizadas en las redes sociales. Su trabajo central demostró que la exclusión de las mujeres en sectores tecnológicos no nace de un odio programado, sino de <strong>una eficiencia económica perversa.</strong></p><p>Aunque el anuncio era neutral en cuanto al género, el algoritmo lo mostró significativamente más a hombres que a mujeres. La causa fue puramente económica porque las mujeres jóvenes son un segmento demográfico más costoso de alcanzar al ser el objetivo prioritario de las <strong>grandes marcas</strong> de gran consumo.</p><p>Al buscar la eficiencia de costes para el anunciante, el sistema tendió a desplazar el anuncio hacia los hombres, que eran más baratos de impactar en ese momento. Este fenómeno sugiere que un algoritmo perfectamente optimizado para la economía puede producir <strong>resultados socialmente discriminatorios</strong> sin necesidad de una intención maliciosa en el código. La <a href="https://www.infolibre.es/medios/clara-grima-matematica-algoritmos-redes-sociales-capacidad-hackear-cerebro_1_2021982.html" target="_blank">discriminación algorítmica</a> opera a escala masiva y con una apariencia de objetividad matemática que la hace especialmente peligrosa.</p><p>El modelo de negocio basado en la publicidad incentiva la recolección constante de datos para mejorar la precisión de las predicciones. La integración de la <strong>inteligencia artificial generativa</strong> promete elevar el valor de los datos de entrenamiento y profundizar la dependencia de las plataformas sobre la experiencia humana. Hemos transitado de un modelo de audiencia entregada a uno de experiencia extraída, donde el verdadero producto son las predicciones sobre nuestro comportamiento futuro.</p><p>La tecnología de aprendizaje automático ha convertido la identidad en una <strong>materia prima gratuita </strong>que se procesa en fábricas de predicción. Bajo este régimen, los individuos son reducidos al estatus permanente de objetos que desaparecen en el flujo de los activos financieros. La privacidad ha dejado de ser una cuestión de ocultar datos para convertirse en la preservación de la autonomía de la voluntad frente a sistemas diseñados para monetizarla.</p><p>La dependencia de servicios gratuitos como los que Google ofrece masivamente ha creado <strong>un “contrato fáustico”,</strong> en expresión de Shoshana Zuboff, autora del <a href="https://www.infolibre.es/opinion/columnas/en-transicion/capitalismo-vigilancia_1_1183172.html" target="_blank">ensayo</a> de referencia de 2019 <em>La era del capitalismo de la vigilancia</em> (Paidós), donde la participación social se paga con la pérdida de derechos de decisión sobre la propia vida.</p><p>El negocio de Google se basa en ofrecer un ecosistema de herramientas esenciales —como el buscador, Gmail, Maps y YouTube— sin coste directo para el usuario, funcionando en realidad como <strong>sensores que capturan masivamente datos</strong> sobre nuestras intenciones, ubicación y hábitos. Al ofrecer estos servicios gratuitos, la compañía se asegura una vigilancia constante que transforma nuestra actividad cotidiana en predicciones de comportamiento, las cuales vende a los anunciantes como el producto final para una publicidad de precisión quirúrgica.</p><p>La única alternativa real frente a esta infraestructura de vigilancia es la <strong>arquitectura de privacidad por defecto</strong> que impida la creación de perfiles conductuales.</p><p>Cada euro invertido por la industria en captar nuestra atención se multiplica por 40 en el gasto que realizamos por recibir el mensaje. El buscador no solo organiza la información del mundo sino que ha construido <strong>un sistema de vigilancia predictiva </strong>que asigna un valor monetario a la esencia misma de la intención humana. El precio de 1.605 dólares anuales por usuario es la prueba estadística de que en la red actual las personas no son clientes sino la infraestructura básica de un mercado que las consume.</p>]]></description>
      <guid isPermaLink="false"><![CDATA[83c00d10-2c11-44d9-8528-2da5d9d3e09b]]></guid>
      <pubDate><![CDATA[Sat, 09 May 2026 04:01:23 +0000]]></pubDate>
      <author><![CDATA[Fernando Varela]]></author>
      <enclosure url="https://static.infolibre.es/clip/a07ba76e-90f0-4175-8e38-fb022e9b8598_16-9-aspect-ratio_default_0.jpg" length="1899141" type="image/jpeg"/>
      <media:content url="https://static.infolibre.es/clip/a07ba76e-90f0-4175-8e38-fb022e9b8598_16-9-aspect-ratio_default_0.jpg" type="image/jpeg" fileSize="1899141" width="1200" height="675"/>
      <media:title><![CDATA[¿Cuánto vales para Google? La subasta invisible que decide que tu atención es 577 veces más valiosa que otra]]></media:title>
      <media:thumbnail url="https://static.infolibre.es/clip/a07ba76e-90f0-4175-8e38-fb022e9b8598_16-9-aspect-ratio_default_0.jpg" width="1200" height="675"/>
      <media:keywords><![CDATA[Google,Publicidad,Unión Europea,Ley protección datos]]></media:keywords>
    </item>
    <item>
      <title><![CDATA[Poner orden en el salvaje Oeste del 'scroll' infinito: “Tenemos chicos y chicas que se nos están rompiendo”]]></title>
      <link><![CDATA[https://www.infolibre.es/medios/poner-orden-salvaje-oeste-scroll-infinito-chicos-chicas-rompiendo_1_2145425.html]]></link>
      <description><![CDATA[<p><img src="https://static.infolibre.es/clip/09c739f8-cf3c-4446-a28e-9ed5037c8334_16-9-aspect-ratio_default_0.jpg" width="1200" height="675" alt="Poner orden en el salvaje Oeste del 'scroll' infinito: “Tenemos chicos y chicas que se nos están rompiendo”"></p><p>“Instagram es una droga. Básicamente, somos camellos”. Esta frase, escrita por uno de los ingenieros de Meta en un arranque de sinceridad en un chat interno de la compañía propiedad del oligarca tecnológico Mark Zuckerberg, resume hasta qué punto las grandes plataformas son <strong>conscientes del producto que manejan.</strong> De cómo está diseñado y qué daño causa.</p><p>No es de extrañar que este haya sido uno de los primeros argumentos utilizados por la acusación en <a href="https://www.infolibre.es/medios/diseno-importa-tecnologicas-enfrentan-primer-gran-juicio-generar-adiccion_1_2134484.html" target="_blank">el histórico juicio de Los Ángeles </a>(California) que por primera vez<strong> ha sentado en el banquillo </strong>a los gigantes tecnológicos de Estados Unidos.</p><p>Los documentos filtrados en litigios recientes pintan un panorama demoledor: las empresas no solo conocen los riesgos, sino que diseñaron sus productos para <strong>maximizar el compromiso</strong> adolescente aunque el coste fuera la salud mental de toda una generación. </p><p>Un informe interno de TikTok, filtrado en 2024, lo admitía sin ambages: “Los menores no tienen una función mental ejecutiva para controlar su tiempo de pantalla”. Es decir: son<strong> incapaces de desconectar,</strong> atrapados en el <em>scroll</em> infinito.</p><p>En 2019, pruebas piloto encargadas por Facebook demostraron que los usuarios que abandonaban la red durante una semana mostraban niveles menores de depresión, ansiedad y soledad. La investigación fue cancelada. Un empleado dejó constancia de su inquietud: ocultarlo les haría parecer “compañías de tabaco” que <strong>sabían del daño de los cigarrillos y callaban. </strong>La comparación no puede ser más reveladora.</p><p>La pregunta ya no es si estas plataformas son adictivas, sino por qué, conociéndolo, no implementan frenos. La respuesta es simple: menos tiempo de pantalla significa menos anuncios, y menos anuncios <strong>significan menos ingresos. </strong></p><p>El caso de la plataforma de juegos Roblox recientemente denunciada en Australia, un país <a href="https://www.infolibre.es/internacional/australia-aprueba-ley-prohibe-acceso-menores-16-anos-redes-sociales_1_1906974.html" target="_blank">pionero en la legislación</a> para regular el acceso a redes sociales, añade otra capa de horror porque se ha convertido en<strong> terreno de caza para depredadores </strong>que la utilizan para manipular a menores con el objetivo final de obtener concesiones de índole sexual, imágenes íntimas o incluso un encuentro físico. La exposición a contenido gráfico se suma a un ecosistema donde la seguridad infantil queda sistemáticamente supeditada al crecimiento de usuarios activos.</p><p>Regular este paisaje resulta endiabladamente complejo. En Estados Unidos, la Sección 230 protege a las plataformas de responsabilidad por contenidos de usuarios, creando <strong>un escudo legal casi impenetrable. </strong>Los litigios actuales intentan cambiar el foco: el problema no es solo lo que se publica, sino el diseño negligente y adictivo de las plataformas mismas. Pero probar causalidad directa entre un algoritmo y un daño específico es un objetivo que todavía nadie ha conseguido alcanzar.</p><p>Lo confirma la doctora en Psicología <strong>Silvia Álava. “</strong>Determinadas redes sociales están pensadas para <em>hackear</em> la atención del cerebro y que intentemos estar en ellas el máximo tiempo posible”. Algo particularmente dañino “en el cerebro de niños o adolescentes, que es muchísimo más sensible” y está <strong>lejos de haber madurado lo suficiente. </strong></p><p>No obstante, precisa, y aunque la ciencia nos dice que hay una correlación entre el uso del móvil y un incremento de los problemas de salud mental, sobre todo de ansiedad, depresión y trastornos de la conducta alimentaria, aún no tenemos un estudio que diga “que hay una relación causal”, solo que es<strong> “un factor de riesgo”.</strong></p><p>Son, en todo caso, evidencias suficientes para que gobiernos de todo el mundo traten de <a href="https://www.infolibre.es/medios/sanchez-declara-guerra-big-tech-responsabilidad-penal-directivos-prohibicion-menores-16_1_2138832.html" target="_blank">poner coto al problema.</a> La cuestión es cómo hacerlo. Una verificación de edad robusta requiere, para muchos, datos biométricos cuyo almacenamiento masivo plantea<strong> riesgos monumentales </strong>de ciberseguridad. ¿Qué empresa merece custodiar los rostros de millones de menores? ¿Qué ocurre cuando esa base se filtra?</p><p>Sin embargo, <strong>Mar España,</strong> responsable de Control Z y exdirectora de la Agencia Española de Protección de Datos (AEPD), no tiene dudas. La prioridad tiene que ser la defensa del libre desarrollo de la personalidad y el derecho a la salud física y mental de los menores y, para hacerlo, asegura a <strong>infoLibre</strong>, <strong>el problema no es la privacidad.</strong></p><p>Son precisamente las grandes plataformas, subraya, las que la están vulnerando al perfilar a los menores a edades tremendamente tempranas con un único objetivo: “Cuanto más pronto se enganchen a las redes, más vulnerables van a ser y <strong>más cautivos serán de los productos y servicios </strong>que estas grandes plataformas ofrecen”.</p><p>Ahora mismo “hay muchísimos menores de 14 años en TikTok y en Instagram” precisamente "porque <strong>las redes no están cumpliendo adecuadamente los principios de privacidad". “</strong>Hay que ir hasta el fondo” para proteger a los menores. “Igual que no pueden consumir alcohol o conducir un coche. Esto es incluso más perjudicial. ¿Por qué? Porque en la adolescencia es cuando las personas creamos hábitos de comportamiento, nuestros valores y cómo nos relacionamos con el otro”. </p><p>Las redes no son, además, el único problema. A todo esto hay que sumar<strong> las cajas de recompensa</strong> <em>(loot boxes)</em> en videojuegos que operan mediante refuerzo intermitente —exactamente como las tragaperras— pero se perciben como entretenimiento, no como apuesta. Detectar y regular esta mecánica hasta que el daño económico o la adicción están consolidados resulta extremadamente difícil.</p><p>Hay, además, cierta <strong>tensión constitucional:</strong> algunos sectores advierten de que la prohibición de acceso a los menores puede limitar oportunidades legítimas de participación juvenil. O lesionar otros derechos.<strong> Laura Davara, </strong>socia del despacho de abogados especializado en derecho digital que lleva su nombre, y experta en educación digital, considera difícil verificar la edad sin incumplir la normativa de protección de datos. </p><p>No se puede pedir el DNI, pone como ejemplo, porque ”incumple el principio de minimización, que es esa obligación de únicamente recabar los datos mínimos necesarios para cumplir con la finalidad” que se persigue. Tampoco es fan de la implantación de controles parentales en los dispositivos porque dan “una <strong>falsa sensación de seguridad. </strong>Yo animo a poner en Google cómo saltar control parental: te salen varios tutoriales”.</p><p>El riesgo principal de una regulación, a su juicio, “es que se vulneren derechos fundamentales. En primer lugar, el derecho a la privacidad. Una cosa es poner límites y otra censurar o espiar: podemos estar hablando de situaciones tremendamente graves”. En juego están, además, la libertad de expresión y “el tema del tipo de mensajes que se pueden limitar. ¿Dónde pones el límite?”, se pregunta. “Es algo muy,<strong> muy peligroso”. </strong></p><p>Mar España discrepa. “Las plataformas sociales tienen <strong>medios de sobra </strong>para verificar la edad”. Y pone un ejemplo que conoce bien, de su etapa al frente de la AEPD. La única plataforma de distribución de porno que entonces decidió voluntariamente adaptarse a los criterios de la agencia usando servicios de verificación de edad que respetan la privacidad <strong>perdió el 85% del tráfico. </strong>Es decir: el servicio logró una efectividad de 8,5 sobre 10. </p><p>Esto no va de si “les quitamos derechos o no les quitamos derechos”, añade la psicóloga Silvia Álava. Cuando “tenemos evidencia de que hay algo que no funciona bien, que puede provocar problemas, hay que regular su uso, porque lo primero es la protección de la infancia, y la infancia llega hasta los 18 años”.</p><p>Frente a quienes dicen que es imposible impedir completamente el acceso, porque siempre habrá quien se lo salte, otros manejan con soltura la analogía de <strong>la prohibición del alcohol a los menores.</strong> El valor de una ley no reside solo en su capacidad de vetar, dicen, sino en su función pedagógica y simbólica.</p><p>Cuando no existe regulación, el problema permanece invisible, relegado a la responsabilidad individual de padres superados por los acontecimientos. Legislar contra cajas de recompensa o acceso a contenidos tóxicos, en cambio, emite un mensaje inequívoco: <strong>“Esto no es inofensivo, </strong>es un riesgo documentado”. Desnaturaliza lo que la inercia social había normalizado —que un niño de diez años pase seis horas diarias en una red diseñada para adultos— y rompe la aceptación pasiva del daño.</p><p>Davara advierte, en todo caso, de que “esto<strong> no es una cosa solo de plataformas. </strong>Es algo tan grande y tiene tal nivel de implicaciones que se tienen que tener en cuenta muchos más factores. No es algo solo de las familias, de los menores, de los centros educativos, de las plataformas, de las administraciones públicas o de los gobiernos”. </p><p>Tampoco debería ser, añade, “una cuestión solo de la edad. Si ponemos el foco solo en la edad, nos vamos a quedar cortísimos. Yo lo digo siempre: <strong>todos tenemos un cuchillo en casa </strong>y podemos utilizarlo para cortar el filete o para cortarle el cuello a la persona con la que convivimos. Y es el mismo cuchillo”. La cuestión es no dejar "utilizar un cuchillo a gente que no tiene el conocimiento" para hacerlo.</p><p>De ahí la importancia, subraya, de la “educación digital”. “Yo soy una de las mayores partidarias, pero de <strong>una educación digital de verdad”. </strong>Más que de nuevas normativas. Ya hay varias, recuerda, “que imponen obligaciones a las plataformas. No digo que sean perfectas, porque no lo son. Tampoco digo que no haya que imponer más obligaciones”, pero lo importante es hacerlas cumplir, en particular <a href="https://www.infolibre.es/medios/nueva-ley-europea-servicios-digitales_1_1580591.html" target="_blank">la Ley de Servicios Digitales</a> (DSA, por sus siglas en inglés). Gracias a esta norma, recuerda, se han impuesto multas cuantiosas por diseños adictivos.  </p><p>Es cierto, como sostiene esta abogada, que las prohibiciones se pueden sortear usando, por ejemplo, VPN de fácil acceso. Pero la mayoría de usuarios no poseen conocimientos técnicos ni voluntad de complicarse constantemente la vida. Si una medida evita que el 70% de menores accedan a contenido tóxico, aunque el 30% restante lo consiga, <strong>el impacto en salud pública seguiría siendo considerable, </strong>subrayan sus partidarios. </p><p>Entre tanto, sin regulación, toda la carga recae en padres que deben competir contra equipos de psicólogos conductuales y diseñadores de experiencia dedicados profesionalmente a minimizar la adicción. <strong>No se debe “poner todo el peso únicamente en las familias”,</strong> explica Álava, aunque tengan un trabajo que hacer de acompañamiento y alfabetización digital. “Las plataformas también tienen que proteger a los menores”. Están hechas precisamente “para enganchar, saben perfectamente que hay contenido que es nocivo”. No solo porno, recuerda, al que los niños están accediendo con ocho años, sino también contenido acerca de cómo autolesionarse, ideación de suicidio, o promoción de trastornos de conducta alimentaria. </p><p>Hace décadas, obligar a usar cinturón generó resistencias: resultaba incómodo, paternalista, una intromisión estatal. La ley no evitó todos los accidentes, pero cambió la percepción del riesgo. Hoy, abrochárselo es acto reflejo, y mirar atrás asombra: ¿cómo permitimos que niños viajaran sin protección? Con las redes sociales, cada vez más personas buscan <strong>una transformación cultural semejante</strong>: pasar del salvaje oeste actual a una cultura de cuidado. </p><p>En todo caso, subraya Mar España, “esto <strong>tiene que ser un pacto de Estado.</strong> Necesitamos consenso y aprobación urgente, pero incorporando el criterio de salud en el proyecto de ley de protección al menor en el entorno digital que probablemente se impulse en este periodo de sesiones. Porque no puede haber una ley donde el eje principal no sea la salud, desde la evidencia científica y la neutralidad política”. </p><p>Consumir porno o redes sociales desde los 12 años y formar tu atención a través de vídeos cortos de 15 segundos afecta al desarrollo cognitivo, insiste la exdirectora de la AEPD. Nunca como ahora la salud física y mental de los adolescentes se ha visto tan perjudicada. “<strong>Los médicos están horrorizados</strong> de lo que están viendo en consulta”, remarca. Silvia Álava lo confirma: “Tenemos chicos y chicas que se nos están rompiendo”.</p><p>De ahí que la Asociación Española de Pediatría, con el respaldo unánime de todas las sociedades médicas, esté pidiendo <strong>prohibir las pantallas en la etapa infantil,</strong> la de “mayor plasticidad cerebral”. Recomiendan cero exposición hasta los seis años; de una hora máximo al día entre 6 y 12 años y dos horas máximo al día de 12 a 18 años. “Incluyendo deberes, enseñanza digital y ocio”, remarca España.</p><p>“Hasta que consigamos que esté tan mal visto que un adolescente tenga un <em>smartphone</em> con 13, 14 o 15 años —o un bebé, que es <strong>una salvajada</strong>—, como ahora está mal visto conducir estando borracho o sin el cinturón de seguridad”, habremos perdido “una o dos generaciones”, advierte.</p>]]></description>
      <guid isPermaLink="false"><![CDATA[d8eabf7e-2876-415c-a53a-0c09c711e53a]]></guid>
      <pubDate><![CDATA[Sat, 14 Feb 2026 18:08:11 +0000]]></pubDate>
      <author><![CDATA[Fernando Varela]]></author>
      <enclosure url="https://static.infolibre.es/clip/09c739f8-cf3c-4446-a28e-9ed5037c8334_16-9-aspect-ratio_default_0.jpg" length="2771296" type="image/jpeg"/>
      <media:content url="https://static.infolibre.es/clip/09c739f8-cf3c-4446-a28e-9ed5037c8334_16-9-aspect-ratio_default_0.jpg" type="image/jpeg" fileSize="2771296" width="1200" height="675"/>
      <media:title><![CDATA[Poner orden en el salvaje Oeste del 'scroll' infinito: “Tenemos chicos y chicas que se nos están rompiendo”]]></media:title>
      <media:thumbnail url="https://static.infolibre.es/clip/09c739f8-cf3c-4446-a28e-9ed5037c8334_16-9-aspect-ratio_default_0.jpg" width="1200" height="675"/>
      <media:keywords><![CDATA[Redes sociales,Internet,Adicciones,Infancia,Educación,Ley protección datos]]></media:keywords>
    </item>
    <item>
      <title><![CDATA[Lo que la condena a Meta revela sobre por qué las redes sociales nos usan como carne de cañón publicitaria]]></title>
      <link><![CDATA[https://www.infolibre.es/medios/condena-meta-revela-redes-sociales-carne-canon-publicitaria_1_2103914.html]]></link>
      <description><![CDATA[<p><img src="https://static.infolibre.es/clip/7af18513-9280-4a37-92a2-b9a077d20e9c_16-9-aspect-ratio_default_0.jpg" width="1200" height="675" alt="Lo que la condena a Meta revela sobre por qué las redes sociales nos usan como carne de cañón publicitaria"></p><p>Durante años, <strong>Meta</strong> jugó en el <strong>mercado publicitario español</strong> (y europeo) con una baraja marcada. Esa es, en esencia, la conclusión de <a href="https://www.infolibre.es/medios/meta-condenada-pagar-479-millones-medios-espanoles-competencia-desleal_1_2101129.html" target="_blank">la </a><a href="https://www.infolibre.es/medios/meta-condenada-pagar-479-millones-medios-espanoles-competencia-desleal_1_2101129.html" target="_blank"><strong>sentencia </strong></a><strong>del Juzgado de lo Mercantil nº 15 de Madrid</strong> que ha obligado a la compañía del multimillonario estadounidense Mark Zuckerberg —propietaria de <strong>Facebook</strong> e <strong>Instagram</strong>— a pagar casi <strong>500 millones de euros</strong> en compensaciones a los grandes medios agrupados en la <strong>Asociación de Medios de Información (AMI)</strong>, la antigua patronal de prensa AEDE, dominada por las grandes cabeceras de papel.</p><p>No se trata de una simple disputa comercial: el fallo describe un sistema construido sobre la explotación masiva e ilegal de los <strong>datos de los usuarios</strong> sin su conocimiento ni autorización expresa, un modelo que permitió a Meta ofrecer <strong>publicidad más eficaz</strong> que la de todo su ecosistema competidor… precisamente porque violaba la ley.</p><p>La resolución desmonta el corazón del <strong>negocio publicitario de Meta en España</strong>. Primero, declara que la compañía actuó con <strong>deslealtad competitiva</strong>: su posición dominante no era fruto únicamente de la escala o de la innovación, sino de una ventaja indebida obtenida al incumplir el <a href="https://www.infolibre.es/medios/proteccion-datos-prohibe-meta-implementar-espana-funcionalidades-electorales-9j_1_1805922.html" target="_blank"><strong>Reglamento General de Protección de Datos </strong></a><strong>(RGPD)</strong>. En otras palabras: <strong>Meta ganaba porque hacía lo que nadie más podía ni debía hacer</strong>.</p><p>El relato judicial es un catálogo de ilegalidades sostenidas durante años. Entre 2018 y 2023, la compañía trató <strong>datos personales</strong> para <a href="https://www.infolibre.es/politica/consumo-obligara-empresas-detallar-algoritmos-publicidad-personalizada_1_1960525.html" target="_blank">elaborar </a><a href="https://www.infolibre.es/politica/consumo-obligara-empresas-detallar-algoritmos-publicidad-personalizada_1_1960525.html" target="_blank"><strong>publicidad personalizada</strong></a> (anuncios adaptados al comportamiento del usuario) sin una <strong>base legal válida</strong>. Ni la supuesta “necesidad contractual” —un argumento que el Comité Europeo de Protección de Datos terminó tumbando— ni el posterior giro al “interés legítimo” superaron el escrutinio jurídico. El tribunal insiste en algo fundamental: la <strong>publicidad personalizada no es un elemento esencial del servicio de una red social</strong>, es simplemente el núcleo del negocio de Meta. Y ese negocio debe ajustarse a la ley, no al revés.</p><p>Pero la <strong>sentencia</strong> va más allá. Señala infracciones estructurales en <strong>transparencia, lealtad y minimización de datos</strong>. Meta recopiló información de forma masiva y sin distinción, tanto dentro de sus plataformas (<strong>mensajes, interacciones, fotos, vídeos</strong>) como en la navegación externa mediante <strong>píxeles de seguimiento</strong> (una diminuta imagen invisible que se incrusta en una web o correo electrónico para recoger información del usuario cada vez que la página o el email se cargan). Ese barrido indiscriminado incluía <a href="https://www.infolibre.es/medios/ia-resume-conversaciones-trampa-ceder-control-mensajes-algoritmo_1_2025557.html" target="_blank">datos especialmente sensibles</a> —<strong>opiniones políticas, salud, orientación sexual o creencias religiosas</strong>— para cuyo tratamiento habría sido imprescindible un <strong>consentimiento explícito</strong> que nunca llegó.</p><p>Con ese arsenal de información, <strong>Facebook</strong> e <strong>Instagram</strong> lograban <strong>segmentaciones publicitarias imposibles</strong> para los medios digitales españoles que, obligados a cumplir la normativa, competían con las manos atadas. La sentencia lo explica sin rodeos: la amplitud y profundidad de los datos obtenidos ilegalmente permitía a Meta construir <strong>publicidad más precisa, más agresiva y más rentable</strong>.</p><p>Meta puede presentar recurso ante la <strong>Audiencia Provincial de Madrid</strong> y ya ha anunciado que lo hará. Pero, de momento, los medios que forman parte de <strong>AMI</strong> se frotan las manos pensando en repartirse los <strong>479 millones de euros</strong> más intereses que el fallo fija como <strong>indemnización por lucro cesante</strong>. Es decir, el dinero que <strong>supuestamente dejaron de ganar</strong> en el mercado publicitario porque <strong>Meta hizo trampas</strong>, y al que no tendrán acceso el resto de soportes publicitarios que no presentaron cargos contra el gigante tecnológico estadounidense, incluidos todos los medios que no forman parte de AMI.</p><p>La clave de la sentencia, que puede indicar el camino a otras semejantes presentadas en Europa —Francia es un ejemplo—, se basa en el <strong>incumplimiento acreditado de la legislación europea en protección de datos</strong>. Pero el fallo va un paso más allá: sostiene que esa <strong>infracción masiva</strong> no fue un mero incumplimiento administrativo, sino una <strong>ventaja competitiva ilegal</strong> que alteró el mercado y dejó en inferioridad a los medios que sí estaban obligados a respetar la normativa.</p><p>El razonamiento del juzgado es directo: si una empresa levanta su <strong>modelo de negocio sobre datos obtenidos sin base legal</strong>, la posición que alcanza en el mercado no es legítima. Y Meta, a juicio del tribunal, lo hizo durante cinco años. Primero, intentando justificar la <strong>publicidad personalizada</strong> como si fuera necesaria para ejecutar el contrato con el usuario; después, refugiándose en un supuesto <strong>interés legítimo</strong> que la justicia europea ya ha descartado.</p><p>En ambos tramos, el <strong>tratamiento de datos</strong> —el mismo que alimentaba la maquinaria publicitaria de <strong>Facebook</strong> e <strong>Instagram</strong>— era ilegal. Y esa ilicitud, argumenta el juez, se tradujo en <strong>poder de mercado</strong>.</p><p>La clave está en el <strong>volumen y la precisión</strong>. Mientras los medios españoles —incluidos los agrupados en <strong>AMI</strong>— solo pueden trabajar con datos limitados y normalmente anonimizados, Meta manejaba millones de perfiles detallados, incluidos rastros recopilados fuera de la propia plataforma mediante <strong>píxeles de seguimiento</strong> y otras tecnologías. Ese diferencial de información permitía a <strong>Facebook</strong> e <strong>Instagram</strong> ofrecer <strong>publicidad dirigida más eficaz, más barata para el anunciante y más atractiva en términos de resultados</strong>.</p><p>La prensa, concluye el fallo, nunca podría competir en igualdad de condiciones: no porque no invierta, sino porque no puede —por ley— acceder al nivel de detalle que Meta obtenía infringiendo los <strong>reglamentos europeos</strong>.</p><p>El juzgado se apoya en esta idea para establecer el <strong>nexo causal</strong>: si <strong>Meta</strong> no hubiera vulnerado la normativa, no habría obtenido esos <strong>ingresos publicitarios</strong>. En consecuencia, todo lo ingresado de forma neta entre 2018 y 2023 —<strong>5.281,69 millones de euros,</strong> según la pericial aceptada por el tribunal y propuesta por <strong>AMI</strong>— se considera potencialmente desviado del mercado. La ausencia de las cuentas de Meta en España, que la compañía no aportó pese a tener “facilidad probatoria”, llevó al juzgado a aceptar íntegramente las cifras de la antigua patronal de la prensa de papel española.</p><p>Acotado —en ausencia de datos de Meta— lo que la empresa supuestamente ganó en España en esos años, ¿cómo decide el tribunal cuánto de ese volumen astronómico habría terminado en las cuentas de resultados de la prensa si <strong>Facebook</strong> e <strong>Instagram</strong> hubieran competido bajo las mismas reglas?</p><p>El juzgado optó por una metodología relativamente extendida en competencia: aplicar la <strong>cuota de mercado legítima</strong> de cada afectado sobre la cifra total considerada ilícita. Como <strong>AMI</strong> no mantuvo su propuesta de acotar el mercado solo a la <strong>publicidad digital</strong>, el tribunal acabó tomando como referencia la definición más amplia presentada por <strong>Meta</strong>: el <strong>mercado publicitario español en su conjunto</strong>, desde la televisión a los diarios impresos, pasando por internet y la radio.</p><p>A partir de ahí, la mecánica es aritmética: se cruzan los <strong>ingresos netos del mercado total</strong> —calculados a partir de informes de <strong>InfoAdex</strong> (la empresa que elabora cada año las <strong>estimaciones oficiales de inversión publicitaria en España</strong>) ajustados con un coeficiente elaborado por la <strong>Comisión Nacional del Mercado y de la Competencia (CNMC)</strong>— con los ingresos netos de cada uno de los demandantes. El resultado: <strong>AMI y las empresas asociadas</strong> representan, según el tribunal, la parte más significativa del mercado y, por tanto, del daño. Su <strong>lucro cesante</strong> fue fijado en <strong>479,12 millones de euros</strong>, una cifra inédita en una <strong>sentencia civil española contra una gran tecnológica</strong> (a menor escala, <strong>Europa Press</strong> recibe 2,57 millones y <strong>Radio Blanca</strong> algo más de 13.500 euros).</p><p>¿Quién se llevará l<strong>a parte más importante </strong>de la indemnización si la sentencia alcanza algún día la condición de firme? AMI no lo ha revelado, pero todo indica que los casi 500 millones acabarán, sobre todo, en manos de las empresas editoras de<em> El País, El Mundo</em> y <em>La Vanguardia,</em> así como del grupo Editorial Prensa Ibérica. </p>]]></description>
      <guid isPermaLink="false"><![CDATA[1567d0d5-47c7-4d12-acbd-80b0fa8a0435]]></guid>
      <pubDate><![CDATA[Sun, 30 Nov 2025 05:01:05 +0000]]></pubDate>
      <author><![CDATA[Fernando Varela]]></author>
      <enclosure url="https://static.infolibre.es/clip/7af18513-9280-4a37-92a2-b9a077d20e9c_16-9-aspect-ratio_default_0.jpg" length="280376" type="image/jpeg"/>
      <media:content url="https://static.infolibre.es/clip/7af18513-9280-4a37-92a2-b9a077d20e9c_16-9-aspect-ratio_default_0.jpg" type="image/jpeg" fileSize="280376" width="1200" height="675"/>
      <media:title><![CDATA[Lo que la condena a Meta revela sobre por qué las redes sociales nos usan como carne de cañón publicitaria]]></media:title>
      <media:thumbnail url="https://static.infolibre.es/clip/7af18513-9280-4a37-92a2-b9a077d20e9c_16-9-aspect-ratio_default_0.jpg" width="1200" height="675"/>
      <media:keywords><![CDATA[Meta,Mark Zuckerberg,Empresas,Ley protección datos,Publicidad]]></media:keywords>
    </item>
    <item>
      <title><![CDATA[Bruselas vuelve a poner en riesgo la privacidad digital con un decreto al servicio de las grandes tecnológicas]]></title>
      <link><![CDATA[https://www.infolibre.es/politica/bruselas-vuelve-poner-riesgo-privacidad-digital-decreto-servicio-grandes-tecnologicas_1_2103771.html]]></link>
      <description><![CDATA[<p><img src="https://static.infolibre.es/clip/373f6c98-d215-45d4-a015-1140c0ce77b0_16-9-aspect-ratio_default_0.jpg" width="1200" height="675" alt="Bruselas vuelve a poner en riesgo la privacidad digital con un decreto al servicio de las grandes tecnológicas"></p><p>La Comisión Europea vuelve a la carga. Apenas un mes después de intentar debilitar la privacidad con el fallido <a href="https://www.infolibre.es/politica/pegasus-alemania-frena-norma-europea-espia-chats-privados_1_2076749.html" target="_blank">Chat Control</a> y de introducir recortes encubiertos en <a href="https://commission.europa.eu/news-and-media/news/simplification-measures-save-eu-businesses-eu400-million-annually-2025-05-21_es" target="_blank">anteriores paquetes ómnibus</a>, <strong>la institución ha impulsado este martes en el pleno de Estrasburgo un nuevo decreto ómnibus digital</strong> que las organizaciones de derechos digitales califican como "el mayor retroceso en la historia de la UE en protección de datos". La votación final, prevista para el jueves, llega <a href="https://edri.org/our-work/commissions-digital-omnibus-is-a-major-rollback-of-eu-digital-protections/" target="_blank">rodeada de advertencias</a> de que la legislación que ha blindado la privacidad en Europa podría quedar seriamente comprometida.</p><p>La Comisión plantea este decreto ómnibus como una <a href="https://spain.representation.ec.europa.eu/noticias-eventos/noticias-0/la-simplificacion-de-normas-digitales-y-las-nuevas-carteras-digitales-permitiran-ahorrar-e-impulsar-2025-11-19_es" target="_blank">reforma transversal</a> para actualizar distintas normas digitales —incluido el Reglamento General de Protección de Datos, la <a href="https://www.infolibre.es/medios/vigilancia-biometrica-ley-inteligencia-artificial-ue_1_1666824.html" target="_blank">Ley de Inteligencia Artificial</a> y la Directiva ePrivacy— bajo el argumento de "armonizar" procedimientos y reducir cargas para empresas y administraciones. Entre los cambios más relevantes <strong>figura una redefinición de qué se considera dato personal</strong> y la creación de nuevas excepciones que permitirían usar "datos parcialmente anonimizados" —información en la que se elimina el nombre, pero que sigue pudiendo identificar a una persona— sin necesidad de pedir su consentimiento en determinados casos.</p><p>El texto incorpora, además, un aplazamiento de un año en la entrada en vigor de las obligaciones destinadas a los sistemas de <a href="https://www.infolibre.es/politica/garcia-blanco-europeos-tranquilos-utilizacion-ia-tendra-controles-estrictos_1_1661716.html" target="_blank">inteligencia artificial</a> catalogados como de alto riesgo. <strong>Estas reglas, previstas inicialmente para agosto de 2026, pasan ahora a diciembre de 2027</strong>. Durante ese periodo adicional, estos sistemas podrán seguir operando sin los requisitos reforzados de documentación, supervisión humana y evaluación de impacto que establece la Ley de IA.</p><p>El nuevo paquete ómnibus no es una simple actualización, sino una reforma que cambia partes esenciales del Reglamento General de Protección de Datos (RGPD), la norma que protege la privacidad en la UE. <strong>Uno de los cambios más importantes es la nueva definición de "dato personal", </strong>ya que las modificaciones del RGPD dejan en manos de las empresas dicha catalogación. Si afirma que no puede identificar a alguien con determinada información, ese dato podría dejar de estar protegido, aunque en la práctica existan formas técnicas de averiguar quién es esa persona.</p><p>Itxaso Domínguez Olazábal, asesora de políticas en<a href="https://edri.org/" target="_blank"> European Digital Rights</a>, critica que este decreto no es una mera simplificación administrativa, sino "un retroceso profundo que reabre protecciones básicas sin medir su impacto". "Si permites que sea la propia empresa la que decida si un dato identifica o no a una persona, estás <strong>dejando la puerta abierta a que muchos datos muy reveladores queden sin protección</strong>. Y sabemos por experiencia que las compañías siempre tienen incentivos para minimizar esa identificación, no para reconocerla", añade.</p><p>Eduard Blasi, jurista especializado en privacidad e inteligencia artificial y socio de TechAndLaw Abogados, advierte de que el nuevo ómnibus debe leerse también en clave económica. A su juicio, la Comisión está moviendo fichas para alinearse con un escenario internacional dominado por la inversión extranjera en IA. "Más del 90% de la inversión en inteligencia artificial ocurre fuera de Europa. <strong>La UE no quiere quedarse atrás y este decreto refleja esa voluntad de ser más ‘business friendly</strong>’, reducir complejidad y ganar agilidad", detalla.</p><p>Aunque las medidas afectarían a todos los usuarios, las consecuencias pueden ser especialmente graves para los colectivos más vulnerables: personas migrantes, mujeres, jóvenes, minorías étnicas o quienes dependen de servicios públicos que ya funcionan con sistemas automáticos. <strong>El paquete también abre la puerta a que empresas y Administraciones utilicen más libremente los llamados "datos inferidos".  </strong>Es decir, información que no damos directamente, pero que se deduce de nuestra actividad digital. Son pistas sobre cómo nos movemos en Internet, qué emociones mostramos, qué compramos, qué apps usamos o incluso qué estado psicológico podemos tener.</p><p>Con la reforma, las empresas podrían argumentar que esa información "no identifica directamente" a una persona y que podría usarse sin pedir permiso ni aplicar las garantías actuales.<strong> </strong>Esto es especialmente problemático porque<strong> </strong>la investigación científica, según Domínguez, ya ha demostrado que <strong>estas inferencias pueden servir para clasificar por origen étnico</strong>, medir solvencia financiera por el comportamiento digital o predecir rendimiento escolar, a menudo con sesgos que perjudican a quienes menos poder tienen para defenderse.</p><p>"En Internet, lo más delicado no es lo que dices, sino lo que se deduce sobre ti. Hemos visto algoritmos que descartan a personas en procesos de selección, <strong>anuncios que solo llegan a ciertos perfiles o sistemas que excluyen automáticamente a quienes necesitan una prestación</strong>. Cuando se rebajan las protecciones, los primeros perjudicados son quienes ya están en la parte más débil de la relación tecnológica", detalla la experta de European Digital Rights.</p><p>El retraso de un año —hasta diciembre de 2027— para aplicar las obligaciones de la <a href="https://www.infolibre.es/medios/vigilancia-biometrica-ley-inteligencia-artificial-ue_1_1666824.html" target="_blank">Ley de Inteligencia Artificial</a> en los sistemas de alto riesgo tampoco llega por casualidad. Coincide con un clima político <strong>marcado por la </strong><a href="https://www.infolibre.es/internacional/eeuu-exige-ue-adopte-normativa-digital-pais-americano-sienta-comodo_1_2103327.html" target="_blank"><strong>presión del Gobierno de Donald Trump</strong></a>, que desde hace meses reclama que Europa rebaje sus estándares y permita un uso más flexible de los datos y de la IA. </p><p>El resultado es que el ómnibus busca conceder tiempo extra a las inteligencias artificiales dedicadas a tareas como el reconocimiento biométrico en espacios públicos, la selección laboral, el control de trabajadores o la asignación de ayudas sociales. Durante ese año adicional, todos estos sistemas podrán seguir operando sin los controles reforzados que la propia UE anunció como esenciales para evitar abusos. Blasi señala que "la UE está pasando <strong>de marcar el camino sobre la protección de datos a un incipiente ‘efecto Washington’, </strong>donde empieza a moverse hacia un marco más cercano a los intereses empresariales".</p><p>"No es una medida pensada para pymes o startups y los únicos que ganan son las grandes tecnológicas", subraya Domínguez. Además, la experta señala que esto supone "un cambio político". "Hace apenas un año la UE estaba orgullosa de su Ley de IA y ahora resulta que necesitan más tiempo, más margen, más excepciones. <strong>No ha cambiado la evidencia, ha cambiado la presión política y económica</strong>", concluye.</p>]]></description>
      <guid isPermaLink="false"><![CDATA[b92105a6-17fd-4e0d-a628-3e2e7c7fc29d]]></guid>
      <pubDate><![CDATA[Wed, 26 Nov 2025 05:01:04 +0000]]></pubDate>
      <author><![CDATA[Pablo de la Serna]]></author>
      <enclosure url="https://static.infolibre.es/clip/373f6c98-d215-45d4-a015-1140c0ce77b0_16-9-aspect-ratio_default_0.jpg" length="4436420" type="image/jpeg"/>
      <media:content url="https://static.infolibre.es/clip/373f6c98-d215-45d4-a015-1140c0ce77b0_16-9-aspect-ratio_default_0.jpg" type="image/jpeg" fileSize="4436420" width="1200" height="675"/>
      <media:title><![CDATA[Bruselas vuelve a poner en riesgo la privacidad digital con un decreto al servicio de las grandes tecnológicas]]></media:title>
      <media:thumbnail url="https://static.infolibre.es/clip/373f6c98-d215-45d4-a015-1140c0ce77b0_16-9-aspect-ratio_default_0.jpg" width="1200" height="675"/>
      <media:keywords><![CDATA[Unión Europea,Europa,Tecnología digital,Ley protección datos]]></media:keywords>
    </item>
    <item>
      <title><![CDATA[La Agencia de Protección de Datos multa a AENA con más de 10 millones de euros por usar reconocimiento facial]]></title>
      <link><![CDATA[https://www.infolibre.es/politica/agencia-proteccion-datos-multa-aena-10-millones-euros-reconocimiento-facial_1_2103961.html]]></link>
      <description><![CDATA[<p><img src="https://static.infolibre.es/clip/9961f655-4960-4378-a962-77d7d800dacd_16-9-aspect-ratio_default_0.jpg" width="1200" height="675" alt="La Agencia de Protección de Datos multa a AENA con más de 10 millones de euros por usar reconocimiento facial"></p><p>La Agencia Española de Protección de Datos (AEPD) ha impuesto una multa de <strong>más de 10 millones de euros a AENA</strong> por desplegar sistemas de <a href="https://www.infolibre.es/mediapart/reconocimiento-facial-precariza-condiciones-laborales-repartidores-comida-domicilio_1_2087490.html"  >reconocimiento facial</a> sin haber hecho previamente una evaluación de impacto válida que, entre otras cuestiones, examine la necesidad, idoneidad y proporcionalidad de la medida. </p><p>En total, la multa se eleva a 10.043.002 euros por una <strong>infracción del artículo 35</strong> del Reglamento General de Protección de Datos (RGPD). En una resolución a la que ha tenido acceso EFE, la agencia confirma además la suspensión temporal de todo tratamiento de datos biométricos.</p><p>En especial, agrega, de los referidos al sistema de <a href="https://www.infolibre.es/mediapart/sistemas-reconocimiento-facial-asalto-aeropuertos-europeos_1_1781103.html"  >identificación por reconocimiento facial</a> para controlar el <strong>acceso de los pasajeros a determinadas zonas</strong> de los aeropuertos gestionados por AENA, hasta que este operador lleve a cabo una evaluación de impacto en la protección de datos en los términos recogidos en el RGPD</p><p>Aena ha anunciado que recurrirá ante los tribunales la sanción, ya que el gestor aeroportuario español entiende, en un comunicado difundido este martes, que la resolución sancionadora dictada por la AEPD <strong>no es acorde con el principio de proporcionalidad</strong>.</p><p>La sanción se fundamenta en la <strong>supuesta infracción de una obligación formal</strong>, al considerar la AEPD que Aena no cumplió debidamente con su obligación formal de elaborar una evaluación de impacto de protección de datos que cumpliera con los requerimientos que establece la normativa con <strong>carácter previo al inicio de los programas</strong> en los que se habilitó el acceso biométrico a los pasajeros que así lo solicitaron.</p><p>Habiéndose elaborado tales evaluaciones antes del inicio de los programas, Aena discrepa respetuosamente de la consideración de la AEPD de que las evaluaciones realizadas <strong>no cumplían adecuadamente</strong> los requerimientos normativos aplicables.</p><p>Aena ha subrayado que garantiza que <strong>no se ha producido ninguna brecha de seguridad</strong> y que, por tanto, no ha habido ninguna filtración de datos de los usuarios de los distintos programas de biometría para embarque, desplegados en los aeropuertos de la red en España, ni de ningún tercero.</p><p>La custodia de estos datos <strong>"no ha estado en riesgo en ningún momento"</strong>, ha insistido Aena, y ha añadido que los titulares de los datos prestaron voluntariamente su consentimiento informado al tratamiento necesario para disfrutar del acceso biométrico.</p><p>A los <a href="https://www.infolibre.es/politica/aeropuertos-espanoles-crecen-10-julio-superando-176-millones-pasajeros_1_1860668.html"  >datos biométricos de los pasajeros</a> enrolados se les ha dado el <strong>tratamiento de conservación, bloqueo y supresión</strong> recogido en el Reglamento General de Protección de Datos (RGPD) y la Ley Orgánica de Protección de Datos Personales y garantía de los derechos digitales (LOPDGDD), ha detallado Aena.</p><p>Aena ha explicado que puso en marcha el embarque biométrico, junto con las compañías aéreas que participaron en el programa, con el fin de proporcionar a los pasajeros una <strong>mejor experiencia en los aeropuertos</strong>, al agilizar el paso por los procesos de documentación. El gestor aeroportuario ha dicho que "<strong>seguirá trabajando en esta línea</strong>, para reiniciar el programa tan pronto como sea posible". </p>]]></description>
      <guid isPermaLink="false"><![CDATA[e995c942-22be-4d7d-9ab5-10715519699c]]></guid>
      <pubDate><![CDATA[Tue, 25 Nov 2025 17:44:50 +0000]]></pubDate>
      <author><![CDATA[infoLibre]]></author>
      <enclosure url="https://static.infolibre.es/clip/9961f655-4960-4378-a962-77d7d800dacd_16-9-aspect-ratio_default_0.jpg" length="4868497" type="image/jpeg"/>
      <media:content url="https://static.infolibre.es/clip/9961f655-4960-4378-a962-77d7d800dacd_16-9-aspect-ratio_default_0.jpg" type="image/jpeg" fileSize="4868497" width="1200" height="675"/>
      <media:title><![CDATA[La Agencia de Protección de Datos multa a AENA con más de 10 millones de euros por usar reconocimiento facial]]></media:title>
      <media:thumbnail url="https://static.infolibre.es/clip/9961f655-4960-4378-a962-77d7d800dacd_16-9-aspect-ratio_default_0.jpg" width="1200" height="675"/>
      <media:keywords><![CDATA[Aeropuertos,AENA,Ley protección datos]]></media:keywords>
    </item>
    <item>
      <title><![CDATA[Un juez decidirá si Facebook e Instagram privaron de publicidad a los medios usando datos ilegales]]></title>
      <link><![CDATA[https://www.infolibre.es/medios/juez-decidira-si-facebook-instagram-whatsapp-privaron-medios-publicidad-usando-datos-ilegales_1_2073401.html]]></link>
      <description><![CDATA[<p><img src="https://static.infolibre.es/clip/95483ce0-c71b-4d7b-b399-eb068acf917e_16-9-aspect-ratio_default_0.jpg" width="1200" height="675" alt="Un juez decidirá si Facebook e Instagram privaron de publicidad a los medios usando datos ilegales"></p><p>La <strong>batalla por la tarta publicitaria en España</strong> llega a los tribunales. El juez <strong>Teodoro Ladrón Roda</strong>, titular del Juzgado de lo Mercantil número 15 de Madrid, será quien decida en la disputa, sin precedentes en España, que enfrenta a la patronal mediática española, la <strong>Asociación de Medios de Información (AMI)</strong>, con <strong>Meta</strong>, la empresa del multimillonario <strong>Mark Zuckerberg</strong> que controla <strong>Facebook, Instagram y WhatsApp</strong>.</p><p>AMI representa a poderosos grupos de comunicación como <strong>Prisa </strong><em><strong>(El País)</strong></em><em>, </em><strong>Unidad Editorial </strong><em><strong>(El Mundo)</strong></em><em>, </em><strong>Vocento</strong><em><strong> (Abc)</strong></em><em>, </em><strong>Godó </strong><em><strong>(La Vanguardia)</strong></em><em>, </em><strong>Prensa Ibérica </strong><em><strong>(El Periódico)</strong></em><em> </em>y <strong>Henneo </strong><em><strong>(20 Minutos)</strong></em><em>, </em>entre otras muchas cabeceras de papel y digitales, pero tiene delante a <a href="https://www.infolibre.es/politica/mitad-espanoles-exige-ue-acciones-frenar-llamadas-big-tech-trump_1_2023964.html" target="_blank">una de las </a><a href="https://www.infolibre.es/politica/mitad-espanoles-exige-ue-acciones-frenar-llamadas-big-tech-trump_1_2023964.html" target="_blank"><strong>empresas más poderosas del mundo</strong></a><a href="https://www.infolibre.es/politica/mitad-espanoles-exige-ue-acciones-frenar-llamadas-big-tech-trump_1_2023964.html" target="_blank">.</a> La demanda, que se remonta dos años atrás, acusa a la matriz de Facebook e Instagram de <strong>competencia desleal</strong> y de <a href="https://www.infolibre.es/internacional/zuckerberg-amenaza-ue-cerrara-facebook-e-instagram-europa-si-no-transferir-datos-usuario-eeuu_1_1218726.html#:~:text=La%20empresa%20de%20Zuckerberg%2C%20Meta%2C%20confía%20en,de%20sus%20servicios%2C%20pues%20esta%20medida%20se." target="_blank">saltarse las </a><a href="https://www.infolibre.es/internacional/zuckerberg-amenaza-ue-cerrara-facebook-e-instagram-europa-si-no-transferir-datos-usuario-eeuu_1_1218726.html#:~:text=La%20empresa%20de%20Zuckerberg%2C%20Meta%2C%20confía%20en,de%20sus%20servicios%2C%20pues%20esta%20medida%20se." target="_blank"><strong>normas europeas de protección de datos</strong></a><a href="https://www.infolibre.es/internacional/zuckerberg-amenaza-ue-cerrara-facebook-e-instagram-europa-si-no-transferir-datos-usuario-eeuu_1_1218726.html#:~:text=La%20empresa%20de%20Zuckerberg%2C%20Meta%2C%20confía%20en,de%20sus%20servicios%2C%20pues%20esta%20medida%20se." target="_blank">.</a></p><p>Según los diarios españoles, entre 2018 y 2023 Meta habría <strong>recopilado y explotado masivamente datos de navegación de millones de usuarios</strong> para vender <strong>publicidad personalizada</strong>, sin pedir un consentimiento válido (tal y como exige la legislación europea de protección de datos desde 2018). Eso, aseguran, le dio ventaja en el <strong>mercado publicitario</strong>, porque al tener más datos y poder segmentar mejor los anuncios, pudo quedarse con gran parte de la <strong>tarta publicitaria digital</strong>, dejando en desventaja a los <strong>periódicos españoles</strong>, muy dependientes de esos ingresos.</p><p><strong>AMI reclama 550 millones de euros de indemnización</strong> porque considera que esos ingresos de Meta fueron ilegítimos y que deberían haber ido, al menos en parte, a los medios. Una suma que, argumenta, será mayor si se demuestra que Meta jugó en el <strong>mercado de la publicidad digital</strong> usando <strong>datos personales</strong> sin cumplir las normas y dejando a los medios en clara desventaja económica también entre 2023 y el momento presente.</p><p>La vista se ha prolongado durante dos días. A su término, la directora de la <strong>Asociación de Medios de Información (AMI)</strong>, <strong>Irene Lanzaco</strong>, aseguró tener “una sensación muy positiva” porque considera que ha quedado “plenamente acreditado” que la empresa de Zuckerberg vulneró la <strong>protección de datos</strong> para realizar <strong>publicidad segmentada</strong>.</p><p>Lanzaco reprochó a Meta que haya declarado desconocer el número de cuentas que tiene en España y los <strong>ingresos publicitarios</strong> que obtiene en nuestro país. Está sustentando su defensa, declaró, sobre la base de que realizaron <strong>inversiones en tecnología</strong> para obtener resultados, “pero omiten decir que esas inversiones han sido posibles y son debidas a la necesidad de <strong>explotar los datos personales</strong>. No es posible desligar una cosa de la otra”.</p><p>La pelea es por un trozo significativo de la <strong>publicidad digital en España</strong>, que la prensa ha ido perdiendo progresivamente en las últimas décadas, pero Lanzaco, que representa a la patronal de diarios, ha tratado de situarla en otros términos: “Lo importante”, subrayó, “no es la cuantía económica, sino la <strong>defensa del trabajo periodístico</strong> y de los <strong>derechos fundamentales</strong>, que son un <strong>pilar de la democracia</strong>”.</p><p>La demanda se apoya en que, desde 2018, l<a href="https://www.infolibre.es/union-europea/bruselas-dispara-apple-facebook-primeras-multas-nuevas-normas-internet_1_1983143.html" target="_blank">a </a><a href="https://www.infolibre.es/union-europea/bruselas-dispara-apple-facebook-primeras-multas-nuevas-normas-internet_1_1983143.html" target="_blank"><strong>legislación comunitaria</strong></a><a href="https://www.infolibre.es/union-europea/bruselas-dispara-apple-facebook-primeras-multas-nuevas-normas-internet_1_1983143.html" target="_blank"> exige a las empresas disponer de “una base legítima” que les habilite para el </a><a href="https://www.infolibre.es/union-europea/bruselas-dispara-apple-facebook-primeras-multas-nuevas-normas-internet_1_1983143.html" target="_blank"><strong>perfilado publicitario</strong></a> (adaptar los anuncios a los gustos, intereses, hábitos o comportamientos de cada usuario a partir de sus <strong>datos personales</strong>).</p><p>En la primera jornada del juicio declararon tres responsables de <strong>Facebook</strong>. <strong>David Sáez de la Torre</strong>, director de Industria de España y Portugal de Facebook desde 2018, declaró que un mayor volumen de datos no significa mayor éxito en publicidad porque su éxito depende de los <strong>algoritmos</strong> y los <strong>instrumentos</strong> con los que se cuente para interpretarlos.</p><p>“No es el único factor a tener en cuenta”, remarcó. Para la publicidad personalizada se toman en consideración otros aspectos derivados de la experiencia que tiene el usuario dentro de la plataforma y de la observación de su navegación, no solo los datos que facilita.</p><p>El catedrático de Derecho Procesal <strong>Nicolás González Cuéllar</strong>, que representa a la patronal de los diarios españoles, preguntó también a <strong>Beltrán Seoane</strong>, director de agencias en Facebook para España y Portugal. <strong>Seoane corroboró la importancia de los datos</strong>, porque si no dispusieran de ninguno “sería como volver a la <strong>publicidad de hace 25 años</strong>”, pero sostuvo que lo que se persigue con ellos son las <strong>audiencias</strong> y el <strong>retorno</strong> para un <strong>mercado publicitario digital</strong> que crece cada año por la <strong>publicidad </strong><em><strong>online</strong></em><em>,</em> una mayor población, competencia y anunciantes.</p><p>Ninguno de los testigos confirmó conocer los procedimientos que se están desarrollando contra Meta por incumplir la normativa. Tampoco <strong>Cecilia Álvarez</strong>, directora de <strong>Política de Privacidad en Europa</strong> de Facebook desde 2019. Álvarez reveló que para la <strong>publicidad personalizada</strong> se recaban <strong>datos de primera parte</strong> y <strong>datos de terceros</strong>, es decir, los personales con los que los usuarios se registran para darse de alta en la plataforma (el nombre, correo electrónico y, si lo desean, foto de perfil), además de otros que les proporcionan empresas a las que los usuarios dieron su consentimiento para su cesión. Y aseguró que desde 2018, <a href="https://www.infolibre.es/politica/bruselas-poner-limites-desbocado-gigantes-digitales_1_1158472.html" target="_blank">el año en que entró en vigor la </a><a href="https://www.infolibre.es/politica/bruselas-poner-limites-desbocado-gigantes-digitales_1_1158472.html" target="_blank"><strong>regulación europea</strong></a><a href="https://www.infolibre.es/politica/bruselas-poner-limites-desbocado-gigantes-digitales_1_1158472.html" target="_blank">, </a>siempre requieren el <strong>consentimiento expreso del usuario</strong> para que terceros cedan sus datos.</p><p>La demanda de <strong>AMI</strong>, que posteriormente fue secundada por <strong>televisiones y radios comerciales españolas</strong>, sigue en el tiempo a otra que se formalizó en <strong>Francia</strong> la pasada primavera. A través de ella, más de <strong>200 medios de comunicación franceses</strong> públicos y privados denunciaron a <strong>Meta</strong> ante el <strong>Tribunal de Actividades Económicas de París</strong> por lo que consideran que son “prácticas ilegales” que, como argumenta AMI, les habrían privado de buena parte de la <strong>publicidad en línea</strong>.</p><p>La base argumental en Francia es idéntica a la que se ha usado en España: la supuesta <strong>recopilación masiva e ilícita de datos personales</strong> para disponer así de informaciones que permiten a la compañía elaborar <strong>anuncios selectivos</strong> en función de las <strong>preferencias</strong> y los <strong>gustos conocidos</strong> de los usuarios. Una “violación flagrante”, según sus promotores, del <strong>Reglamento General de Protección de Datos (RGPD)</strong> de la <strong>Unión Europea</strong>, ya que no informaron a esas personas de que estaban recopilando esos datos ni solicitaron expresamente su consentimiento.</p><p>Según los cálculos de la demanda francesa, mediante el uso de estos datos <strong>Google y Meta</strong> acaparan el <strong>75% del mercado publicitario</strong> y el <strong>90% de su crecimiento</strong>.</p><p><a href="https://www.infolibre.es/internacional/alto-precio-pagando-oligarcas-tecnologicos-foto-trump_1_1960861.html" target="_blank"><strong>Mark Zuckerberg</strong></a><a href="https://www.infolibre.es/internacional/alto-precio-pagando-oligarcas-tecnologicos-foto-trump_1_1960861.html" target="_blank">, un </a><a href="https://www.infolibre.es/internacional/alto-precio-pagando-oligarcas-tecnologicos-foto-trump_1_1960861.html" target="_blank"><strong>aliado tecnológico de Donald Trump</strong></a><a href="https://www.infolibre.es/internacional/alto-precio-pagando-oligarcas-tecnologicos-foto-trump_1_1960861.html" target="_blank">,</a> que en varias ocasiones ha amenazado a la <strong>Unión Europea</strong> con sanciones si no deroga la <strong>legislación que afecta a las tecnológicas norteamericanas</strong>, enfrenta también problemas en otros países de Europa. Este jueves se conoció que la <strong>Justicia neerlandesa</strong> ha ordenado a Meta modificar en un plazo de dos semanas sus plataformas sociales <strong>Facebook e Instagram en Países Bajos</strong> para garantizar a los usuarios una opción de <strong>cronología sin algoritmos</strong>, de <strong>acceso directo</strong> y que pueda fijarse como <strong>predeterminada</strong>, frente a la práctica actual de <strong>elaboración de perfiles</strong>.</p><p>El tribunal concluyó que la configuración actual de ambas aplicaciones vulnera aspectos de la <strong>Ley Europea de Servicios Digitales (DSA)</strong>, al forzar de manera encubierta a los usuarios a volver a un <strong>sistema de recomendaciones basado en perfiles</strong>, un restablecimiento automático que el juez consideró un “<strong>patrón oscuro</strong>” prohibido que limita la <strong>libertad de información y expresión</strong>.</p><p>“Actualmente, Facebook e Instagram no permiten suficientemente a los usuarios en Países Bajos tomar decisiones libres y autónomas sobre el uso de sistemas de recomendaciones basados en perfiles”, señaló el juez.</p><p>La decisión responde a una demanda de la organización de derechos civiles <strong>Bits of Freedom</strong>, que denunció que el funcionamiento de <strong>Facebook e Instagram</strong> podía influir en los <strong>comicios generales en Países Bajos</strong> a finales de este mes, al condicionar la <strong>visibilidad de contenidos mediante algoritmos</strong>, informa Efe.</p><p>“Teniendo en cuenta las elecciones del 29 de octubre de 2025, Meta Irlanda deberá adaptar sus plataformas en el plazo de dos semanas”, urgió el magistrado.</p><p>El juez ordenó que la opción de un <strong>feed cronológico o sin perfilado</strong> se mantenga incluso cuando el usuario cierre la aplicación o cambie de sección dentro de la plataforma.</p><p>Esto implica que los usuarios deben poder elegir un feed que no se elabore en función de sus supuestos intereses, una opción que existe actualmente, pero está <strong>oculta</strong> y no puede fijarse como estándar.</p><p><strong>Meta deberá implementar los cambios en Países Bajos en dos semanas o pagar una multa coercitiva de 100.000 euros por día, hasta un máximo de cinco millones.</strong></p>]]></description>
      <guid isPermaLink="false"><![CDATA[08a420fc-5929-4587-955b-706244bd5092]]></guid>
      <pubDate><![CDATA[Fri, 03 Oct 2025 04:01:07 +0000]]></pubDate>
      <author><![CDATA[Fernando Varela]]></author>
      <enclosure url="https://static.infolibre.es/clip/95483ce0-c71b-4d7b-b399-eb068acf917e_16-9-aspect-ratio_default_0.jpg" length="838821" type="image/jpeg"/>
      <media:content url="https://static.infolibre.es/clip/95483ce0-c71b-4d7b-b399-eb068acf917e_16-9-aspect-ratio_default_0.jpg" type="image/jpeg" fileSize="838821" width="1200" height="675"/>
      <media:title><![CDATA[Un juez decidirá si Facebook e Instagram privaron de publicidad a los medios usando datos ilegales]]></media:title>
      <media:thumbnail url="https://static.infolibre.es/clip/95483ce0-c71b-4d7b-b399-eb068acf917e_16-9-aspect-ratio_default_0.jpg" width="1200" height="675"/>
      <media:keywords><![CDATA[Meta,Instagram,Facebook,WhatsApp,Ley protección datos,Medios comunicación,Justicia,Publicidad]]></media:keywords>
    </item>
    <item>
      <title><![CDATA[La mitad de los españoles exige a la UE acciones para frenar a las llamadas 'big tech' en la era Trump]]></title>
      <link><![CDATA[https://www.infolibre.es/politica/mitad-espanoles-exige-ue-acciones-frenar-llamadas-big-tech-trump_1_2023964.html]]></link>
      <description><![CDATA[<p><img src="https://static.infolibre.es/clip/baeb1839-221e-4560-815f-043f9a0c753d_16-9-discover-aspect-ratio_default_0.jpg" width="1200" height="675" alt="La mayoría de españoles opina que las grandes tecnológicas son un problema para la democracia"></p><p>Una nueva encuesta de <a href="https://es.yougov.com/" target="_blank" >YouGov</a> realizada en <strong>Francia, Alemania y España</strong> revela que la mayoría de encuestados exigen firmeza ante las llamadas <em><strong>big tech</strong></em>, pese a que esto implique un perjuicio en las relaciones con <strong>Donald Trump.</strong> </p><p>El <strong>estudio de YouGov</strong> —empresa internacional de investigación de mercados y análisis de datos basada en Internet— muestra que la ciudadanía se postula en favor de que la UE tome medidas estructurales contra las grandes tecnológicas siguiendo su marco regulativo. De hecho, según los datos publicados, el <strong>49% de encuestados en España</strong> creen que la aplicación europea de las leyes que abordan la influencia y el poder de las grandes empresas tecnológicas es <strong>demasiado laxa.</strong> Tanto en Francia (63%) como en Alemania (59%) los porcentajes son más altos en esta cuestión. </p><p>Desde la llegada de Donald Trump a la Casa Blanca, las <strong>relaciones del presidente con los CEO de las </strong><em><strong>big tech</strong></em> se han estrechado. Esto, en España en general, es visto de manera <strong>muy negativa</strong> y los votantes de los partidos políticos que tienen una opinión más cercana a esta postura son los de <strong>Sumar</strong> (57%) y el <strong>PSOE</strong> (33%), mientras que entre los votantes de <strong>Vox</strong> tan solo el 11% ven estas dinámicas como algo perjudicial. </p><p>La mayoría de europeos <strong>no creen que estas </strong><em><strong>big tech</strong></em><strong> sean compatibles con un sistema democrático.</strong> En los tres países (Francia, Alemania y España), la mayoría de los encuestados cree que las grandes tecnológicas tienen un impacto negativo en la democracia europea: en España, más del doble considera que tienen un efecto negativo (41%) que positivo (18%). </p><p>En cuanto al <strong>poder de estas empresas</strong>, si excluimos a los encuestados que no están seguros (24% en Francia, 26% en Alemania y 16% en España), <strong>dos tercios de los encuestados</strong> (65%) de los tres países creen que las grandes empresas tecnológicas son más poderosas que la UE.</p><p>No es coincidencia que, según el medio de verificación <a href="https://maldita.es/malditatecnologia/20211201/multas-millonarias-tecnologicas-proteccion-datos/" target="_blank" >Maldita.es</a>, el sector de las tecnológicas es el que más gasta en hacer <strong>presión en las instituciones</strong> europeas con unos <strong>97 millones de euros</strong> invertidos al año. Esta cifra las sitúa por delante de <em>lobbys</em> como el de las farmacéuticas o el de los combustibles fósiles. </p><p>Además, según la encuesta, las personas no solo creen que esto tenga un impacto en la política, sino también en el <strong>periodismo</strong>: aunque los porcentajes son muy similares en Francia, el público se inclina hacia la creencia de que las grandes tecnológicas <strong>socavan el modelo de negocio de los medios de comunicación</strong> en Alemania y España, en comparación con los porcentajes que afirman que apoyan a los medios de comunicación y al periodismo independiente.</p><p>Este sondeo, encargado por las asociaciones <a href="https://peoplevsbig.tech/" target="_blank" >People vs BigTech</a> y <a href="https://www.wemove.eu/es/campaigns" target="_blank" >Movemos Europa</a>, se publica en un momento de tensiones entre <a href="https://www.infolibre.es/temas/estados-unidos/" target="_blank" >Estados Unidos</a> y la <a href="https://www.infolibre.es/temas/union-europea/" target="_blank" >Unión Europea</a> debido a la cuestión arancelaria y con las leyes tecnológicas europeas como nuevo tema encima de la mesa. Según la Comisión de la Unión Europea, tanto <a href="https://www.infolibre.es/temas/apple/" target="_blank" >Apple</a> como <a href="https://www.infolibre.es/temas/meta/" target="_blank" >Meta</a> no se enfrentarán a sanciones inmediatas por el incumplimiento de la normativa digital de la UE. </p><p>Ya en abril, <a href="https://www.infolibre.es/economia/ue-multa-apple-500-millones-euros-meta-200-millones-vulnerar-leyes-digitales_1_1982774.html" target="_blank" >la Comisión Europea multó a Apple y a Meta con 500 y 200 millones de euros</a> respectivamente por el incumplimiento de la <strong>Ley de Mercados Digitales</strong> (DMA) y dio a ambas empresas un plazo de 60 días para reajustar sus prácticas y entrar así en los marcos legales de la UE. Pero la Comisión retrasará dichas sanciones que no se impondrán de manera inminente, sino que primero se someterán a un análisis preliminar de la <strong>Comisión</strong>.</p><p>Esto se solapó con la resolución judicial estadounidense que<strong> tachó de ilegales las prácticas monopolísticas de Google</strong> en cuanto a su gestión de la publicidad online. El <strong>Departamento de Justicia estadounidense</strong> acusó a la empresa de manipulación de los mercados con el fin de expulsar a la competencia para mantener su dominio. También alegó que <strong>Google controla el 87% del mercado publicitario</strong> de los Estados Unidos. En 2016, <strong>Google realizó modificaciones en su política de privacidad</strong> para permitir la integración de los datos en todas sus plataformas de marketing lo que permitió que la empresa utilizara información muy personal extraída en segundo plano de cada usuario de Internet.</p><p>Tras estas polémicas, el debate del <strong>poder de las </strong><em><strong>big tech</strong></em> se ha vuelto a abrir. </p><p>La <strong>guerra comercial entre EEUU y la UE</strong> se ha intensificado desde mediados de marzo. <strong>Ursula von der Leyen</strong>, presidenta de la Comisión, en respuesta a los aranceles propuestos por Trump, ha amenazado con nuevos impuestos por publicidad digital para los servicios online estadounidenses. </p><p>Esta encuesta demuestra que la mayoría de los ciudadanos europeos no solo <strong>apoya a la UE</strong> en el cumplimiento de las medidas reguladoras para las grandes tecnológicas, sino que exigen que se <strong>impongan medidas más duras</strong> y que se apliquen las sanciones correspondientes para que las<em> big tech</em> dejen de ser un impedimento para el correcto desarrollo de la democracia en Europa. </p>]]></description>
      <guid isPermaLink="false"><![CDATA[1dd06d30-3782-4667-9162-c971eff2b1b2]]></guid>
      <pubDate><![CDATA[Wed, 02 Jul 2025 22:02:00 +0000]]></pubDate>
      <author><![CDATA[Ignacio Prieto]]></author>
      <enclosure url="https://static.infolibre.es/clip/baeb1839-221e-4560-815f-043f9a0c753d_16-9-discover-aspect-ratio_default_0.jpg" length="627384" type="image/jpeg"/>
      <media:content url="https://static.infolibre.es/clip/baeb1839-221e-4560-815f-043f9a0c753d_16-9-discover-aspect-ratio_default_0.jpg" type="image/jpeg" fileSize="627384" width="1200" height="675"/>
      <media:title><![CDATA[La mitad de los españoles exige a la UE acciones para frenar a las llamadas 'big tech' en la era Trump]]></media:title>
      <media:thumbnail url="https://static.infolibre.es/clip/baeb1839-221e-4560-815f-043f9a0c753d_16-9-discover-aspect-ratio_default_0.jpg" width="1200" height="675"/>
      <media:keywords><![CDATA[Redes sociales,Google,Meta,Apple,Donald Trump,Unión Europea,Ley protección datos,Tecnología digital]]></media:keywords>
    </item>
    <item>
      <title><![CDATA[Control legal de las redes sociales]]></title>
      <link><![CDATA[https://www.infolibre.es/opinion/plaza-publica/control-legal-redes-sociales_129_1910214.html]]></link>
      <description><![CDATA[<p><img src="https://static.infolibre.es/clip/ffd4f012-4e73-4247-b3aa-427f14581718_16-9-discover-aspect-ratio_default_0.jpg" width="1200" height="675" alt="Control legal de las redes sociales"></p><p>Uno de los problemas más importantes en internet es la <strong>preservación de ciertos límites éticos en el uso de tecnologías </strong>que rebasan las capacidades humanas de control como la IA y su combinación con el manejo masivo de datos, los Big Data. Y no sólo en cuanto a los contenidos que se publican, sino de manera más estructural, en aspectos mucho menos visibles. Por ejemplo, la dificultad que entraña la identificación de aspectos sistémicos que transgreden o invitan a la transgresión de normas éticas y políticas fundamentales. Los <strong>diseños y recomendaciones de los algoritmos invitan frecuentemente a la ira, al miedo, a la indignación o al odio</strong>, generando polarización y una potente, sesgada y en ocasiones malintencionada alternativa a la opinión pública tradicional. Una alternativa que crece y se radicaliza políticamente en la medida en que disminuye la lectura de la prensa y el seguimiento de la información veraz. Esta alternativa a la opinión pública tradicional pasa sin duda por las redes sociales. </p><p>Las redes sociales poseen distintos modelos según su infraestructura, su arquitectura de <em>software</em> y las decisiones técnicas que sustentan las plataformas, acordes con el interés empresarial que las mueve. </p><p>El modelo usado por las plataformas más influyentes es un “modelo centralizado” de red. Diseñado como un sistema centralizado, toda la información pasa por servidores controlados por la propia plataforma. En estas redes, por tanto, hay un mayor control sobre la moderación y las actualizaciones, y una mayor eficiencia en la gestión de datos y análisis. Por ejemplo Meta (Facebook e instagram) y Twitter, actual X, operan con servidores centralizados.</p><p>En contraposición, en el <strong>“modelo descentralizado”</strong>,<strong> </strong>la red opera como un sistema distribuido, similar al <em>blockchain</em> o los protocolos Mastodon. Este modelo <strong>ofrece mayor seguridad y un mayor control sobre los datos</strong>, pero también tiene riesgos importantes. Pues al distribuir el control y la gestión de la información entre múltiples servidores o nodos independientes, en lugar de centralizarlo en solo servidor o entidad controladora, <strong>no hay un único punto de control que pueda ser bloqueado, regulado</strong> o censurado por un gobierno o cualquier autoridad. <strong>Ofrece así una libertad ilimitada,</strong> pero también una mayor posibilidad de manipulación al rebajar la capacidad de moderación y dar vía libre a discursos de odio e información falsa. Va en dirección contraria a los monopolios, pero la falta de una autoridad central puede dificultar la implementación de medidas coordinadas para solucionar problemas con el spam o la desinformación. Además, requiere de conocimientos técnicos para configurar y operar limitando sensiblemente su adopción masiva por los usuarios.</p><p>En ambos modelos<strong> suele aparecer la polarización.</strong> Esta no es casual, es el resultado de decisiones comerciales y técnicas que priorizan la rentabilidad sobre el bienestar social. Varios factores inciden en dicha polarización: 1) Los “filtros burbuja”, empleados en ambos modelos, crean ecosistemas cerrados en los que los usuarios sólo perciben la información y los contenidos alineados con sus gustos y creencias reforzando sus convicciones y dificultando el diálogo social real; 2) la<strong> “gamificación” de los conflictos con métricas visibles como los likes,</strong> <em>shares</em> o <em>retweets</em> que premian contenidos controvertidos y a veces ofensivos, tensionan la red y disparan los conflictos reales en la realidad social; 3) la <strong>moderación insuficiente </strong>(sea por falta de recursos o mala voluntad) por parte de las grandes plataformas y redes que no filtran o incluso promueven las <em>fake news</em>, los discursos de odio o la desinformación permanente. </p><p>Las redes, tanto las centralizadas como las descentralizadas usan “algoritmos de recomendación” basados en el aprendizaje automático. Dicho aprendizaje se sustenta en el historial de interacción, en las preferencias expresadas por el usuario y en datos demográficos. Por ejemplo, Tik-Tok prioriza vídeos en función de métricas de <em>engagement </em>(compromiso), mientras Instagram usa el aprendizaje automático para sugerir publicaciones.</p><p>Según como se establezca el modo de interacción de los usuarios, las redes pueden mostrar una estructura de “modelo de grafo social” en el que las conexiones entre usuarios adquieren forma de grafo (nodos=usuarios; y aristas= relaciones, amistades, seguidores,etc.).<strong> Facebook es el típico modelo de grafo social</strong> basado en conexiones bidireccionales (amistades). También pueden adoptar la forma de “modelo viral”, que promueve la creación y difusión rápida de un contenido viral aprovechando el diseño de compartir (<em>retweets, reposts</em> o reenvíos,etc.), con la finalidad de aumentar el alcance y la actividad de la red y por tanto el volumen de negocio, es el caso de X y TikTok. Otras formas se ajustan al “<strong>modelo de interacción parasocial” que permite a los usuarios interactuar con celebridade</strong>s, influencers o marcas de manera unidireccional bajo la apariencia de una relación personal. Por ejemplo, Instagram o Youtube fomentan las interacciones entre fans y figuras públicas a través de comentarios, likes, y mensajes directos. Por último hay redes que adoptan forma del “<strong>modelo de comunidad cerrada” que permite la creación de grupos privados</strong> o comunidades cerradas con intereses compartidos, por ejemplo, los grupos de Facebook y Discord lo usan para fomentar comunidades específicas.</p><p>En las redes también se usan los<strong> “modelos económicos”, diseñados y orientados directamente a la rentabilidad.</strong> Su estructura varía según los distintos modelos de ingresos.</p><p>Hay otros modelos empleados en las redes que merecen especial atención, pues están basados en la experiencia del usuario y sus características producen un profundo impacto al buscar la participación del usuario mediante principios psicológicos y de participación. Por ejemplo, el <strong>“modelo de engagement loop” fomenta la interacción recurrente </strong>gracias a ofrecer recompensas inmediatas o variables (notificaciones, likes, comentarios). Otras redes como Facebook o Instagram mantienen la actividad constante de los usuarios enviando notificaciones continuas, etc. El <strong>“modelo de diseño gamificado” introduce elementos de juego</strong> (puntajes, insignias, niveles) incentivando el uso y la participación. Otras como Snapchat utiliza “streaks” para fomentar interacciones diarias. El<strong> “modelo de recompensa social”</strong> está diseñado para que <strong>el usuario busque la validación y el estatus social</strong> a través de<strong> “interacciones positivas” como likes y shares</strong>, por ejemplo la cantidad acumulada de<em> likes </em>(me gusta) en Instagram o de <em>retweets</em> en X. Por último, los <strong>“modelos regulatorios éticos”, </strong>que suelen incorporarse a las plataformas, aunque no siempre de manera efectiva.  Se trata de garantizar mediante el diseño, la estructura y el funcionamiento de la red el cumpliento de las normas básicas reflejadas en el Reglamento General de Protección de Datos (RGPD) o la Digital Services Act (DSA).</p><p>La <strong>Digital Services Act, (DSA) es una ley de servicios digitales </strong>que se aplica a todas las plataformas digitales y servicios en línea. Rige en todo el <strong>territorio europeo</strong> independientemente de dónde tengan su sede las empresas, por lo que las grandes estadounidenses como Meta (Facebook), X o Google están sujetas a la DSA si ofrecen servicios en Europa. Regula los servicios de alojamiento, los motores de búsqueda, las redes sociales, las marketplaces en línea como Amazon o eBay, las grandes plataformas en línea (VLOPs) y los enormes motores de búsqueda (VLOSEs). Esta ley debe garantizar un entorno digital seguro y exige, al menos teóricamente, responsabilidad a las plataformas por el contenido y la desinformación. Además debe proteger los derechos fundamentales de los usuarios como la privacidad y la libertad de expresión. La ley trata de acotar y regular el uso de algoritmos y Big Data, implementando medidas contra el abuso y la manipulación, e introduciendo elementos para prevenir riesgos sistémicos.</p><p>Por su parte, el<strong> Reglamento General de Protección de Datos (RGPD)</strong> establece <strong>normas de protección, manejo y tratamiento de datos personales </strong>de los ciudadanos de la UE. La norma fue elaborada por las instituciones de la UE (Comisión Europea, Consejo y Parlamento Europeo) y entró en vigor en mayo de 2018. Garantiza que los datos personales sean recogidos y tratados de manera lícita, transparente y con fines específicos. Reconoce los derechos de las personas con relación a sus datos: derecho de acceso, de rectificación, derecho al olvido, a la portabilidad, a la limitación del tratamiento; además del derecho de oposición al uso no consentido y el derecho al consentimiento informado. Por otra parte, <strong>exige de las organizaciones el consentimiento claro y explícito antes de procesar los datos personales</strong>. Además, obliga a las empresas a demostrar que cumplen la normativa a través de registros, evaluaciones de impacto y de políticas claras de privacidad. Para asegurar los datos, exige medidas técnicas y organizativas contra accesos no autorizados, pérdidas o destrucción de los mismos. En caso de violaciones de seguridad de los datos personales las empresas deben notificar a las autoridades y a los afectados la incidencia. </p><p>El Reglamento regula cómo se transfieren los datos fuera de la Unión Europea asegurando niveles adecuados de protección. En cada<strong> Estado de la UE</strong> <strong>hay una autoridad nacional de protección de datos</strong> encargada de supervisar y garantizar el cumplimiento de dicho reglamento. En España corresponde a la Agencia Española de Protección de Datos (AEPD), y es el Comité Europeo de Protección de Datos quien coordina las distintas autoridades y emite directrices sobre la interpretación del RGPD.</p><p>Ante una legislación consistente y un despliegue tecnológico avanzado puesto al servicio del control y la supervisión continua, cabe preguntarse cómo es posible que puedan producirse, con cada vez más frecuencia, casos de abuso sistemático en el uso de datos, proliferación de noticias falsas, contenidos violentos, insultantes, difamantes y diseños polarizantes.  Y <strong>cómo</strong>, pese a existir también guías en todos los ámbitos que barren las grandes plataformas digitales y normas voluntarias que las orientan, cómo pese a todo ello, <strong>siguen proliferando y creciendo los contenidos violento</strong>s que generan cada vez más polarización.</p><p>______________________________</p><p><em><strong>Sergio Hinojosa</strong></em> <em>es licenciado en Filosofía por la Universidad de Granada y profesor de instituto.</em></p>]]></description>
      <guid isPermaLink="false"><![CDATA[4763ff70-d393-4140-bc9f-c3efe9850d77]]></guid>
      <pubDate><![CDATA[Sat, 07 Dec 2024 18:45:55 +0000]]></pubDate>
      <author><![CDATA[Sergio Hinojosa]]></author>
      <enclosure url="https://static.infolibre.es/clip/ffd4f012-4e73-4247-b3aa-427f14581718_16-9-discover-aspect-ratio_default_0.jpg" length="1509080" type="image/jpeg"/>
      <media:content url="https://static.infolibre.es/clip/ffd4f012-4e73-4247-b3aa-427f14581718_16-9-discover-aspect-ratio_default_0.jpg" type="image/jpeg" fileSize="1509080" width="1200" height="675"/>
      <media:title><![CDATA[Control legal de las redes sociales]]></media:title>
      <media:thumbnail url="https://static.infolibre.es/clip/ffd4f012-4e73-4247-b3aa-427f14581718_16-9-discover-aspect-ratio_default_0.jpg" width="1200" height="675"/>
      <media:keywords><![CDATA[Legislación,Redes sociales,Ley protección datos]]></media:keywords>
    </item>
    <item>
      <title><![CDATA[Técnicos de Hacienda y expertos en datos explican a Alvise el lío en el que se mete sorteando su sueldo]]></title>
      <link><![CDATA[https://www.infolibre.es/economia/sorteo-fake-sueldo-alvise-condiciones-son-cambiantes-donacion-fake_1_1861568.html]]></link>
      <description><![CDATA[<p><img src="https://static.infolibre.es/clip/aa991a26-3d53-4d0c-9f87-1910b9d7316a_16-9-aspect-ratio_default_0.jpg" width="1200" height="675" alt="Técnicos de Hacienda y expertos en datos explican a Alvise el lío en el que se mete sorteando su sueldo"></p><p>De manera "transparente”. Así asegura Luis Pérez, el eurodiputado conocido como <strong>Alvise</strong> y líder de la agrupación de electores Se acabó la fiesta (SALF), que llevará a cabo el <strong>“sorteo” de su sueldo</strong> que prometió en campaña y del que nada se sabía desde el pasado junio, lo que había comenzado a provocar críticas entre sus seguidores. <strong>Ha lanzado una página web</strong>, en la que se autodefine como “un analista de inteligencia destacado por su valentía y compromiso con la justicia y la transparencia”, y en la que fija que, para poder probar suerte y hacerse con los algo más de 8.088 euros que constituyen su salario público neto, <strong>hay que suscribirse al canal "Alvise Pérez" en Telegram y rellenar un formulario, que es cambiante. </strong>Si cuando anunció el sitio de internet hace apenas dos días se requería obligatoriamente facilitar el nombre, los apellidos, el DNI/NIE, el email, el teléfono y el usuario de Instagram; este martes 13 de agosto, ya no es indispensable aportar ese último dato, aunque sí se pide, junto a los usuarios de TikTok y de X, antes Twitter.</p><p>Pérez, implicado en un puñado de procesos judiciales por presuntamente difundir bulos o noticias falsas, si bien presume de no tener ninguna condena firme, asevera que <strong>está requiriendo los datos que abogados expertos en la Ley Orgánica de Protección de Datos (LOPD) </strong>y lo que denomina “delegado oficial de Protección de Datos” le<strong> han indicado</strong> como necesarios para poder cumplir la legislación española y que todo se trata de <strong>una “donación”. </strong>Pero distintas fuentes apuntan que, “entonces, tal vez no esté bien asesorado”. </p><p>Para arrancar, <strong>los técnicos de Hacienda no creen que se trata de una donación</strong>, como se afirma en la web de Alvise, en la que se advierte incluso de que este no se hace responsable de las obligaciones fiscales del supuesto donatario y de que el impuesto que habría que abonar por ese concepto es distinto por comunidades. El secretario general del Sindicato de Técnicos del Ministerio de Hacienda (Gestha), <strong>José María Mollinedo, lo explica: “El sorteo que está haciendo Alvise Pérez tiene las notas características de una combinación aleatoria con fin promocional,</strong> no parece que se trate de una donación”. <strong>Idea que confirman desde el Ministerio de Derechos Sociales, Consumo y Agenda 2030,</strong> que transmiten a infoLibre que, aunque no cuentan de momento con “más información de lo publicado en prensa”, consideran que esa actividad “corresponde a lo que se conoce como combinación aleatoria con fines publicitarios” y, por tanto, “queda fuera de la normativa y de la autorización necesaria" para llevar a cabo "una rifa”. “<strong>Para realizarla”</strong>, matizan las fuentes del ministerio, “<strong>no es precisa la gestión de licencia o autorización alguna</strong>, ni la comunicación previa.<strong> Está sometido únicamente al pago del Impuesto sobre Actividades de Juego</strong>”. </p><p>Es decir, <strong>¿el eurodiputado promotor tendrá que abonar dinero a Hacienda por el presunto sorteo? </strong>Mollinedo lo confirma y aclara que tendrán que hacerlo las dos partes: él y los ganadores de los más de 8.000 euros cada mes. “<strong>Tanto Alvise como la persona que gane el premio tendrían que pagar impuestos. </strong>El primero ha de declarar en el IRPF su sueldo íntegro –el bruto es de 10.377 euros–, aunque lo sortee y no se lo quede, y descontará las retenciones que le hayan hecho. Y, junto a ello, por el sorteo, habrá de pagar el impuesto de juego que fija la Ley de 2011, el 10% de cada premio”, expone. Por lo que respecta a<strong> la persona que resulte agraciada,</strong> el secretario general y portavoz de Gestha señala que <strong>“deberá abonar en el IRPF el importe de los alrededor de los 8.000 euros que reciba como una ganancia patrimonial </strong>que se integra en la base liquidable general”. “El importe del premio–añade– se suma con su sueldo y otras rentas y tributa con arreglo a la escala de gravamen progresiva del IRPF. Esto es, el premio se integra en la declaración de renta junto con el resto de rendimientos ordinarios de esa persona, que podrá descontar una retención del 19%, que Alvise tendrá que ingresar porque es el retenedor”. “<strong>Como no parece ser una donación, el impuesto correcto del premiado es el IRPF</strong>”, remata.</p><p>Fuentes del ámbito jurídico avisan de que, pese a que “la gente está dando sus datos sensibles libremente” y el europarlamentario “no está cobrando por participar en el supuesto sorteo”, sólo debería demandar la información “estrictamente necesaria para poder contactar” con el agraciado y poder hacerle entrega del dinero y sólo “podrá usarla para eso y para nada más”, a la luz de lo marcado en el Reglamento General de Protección de Datos (RGPF). En ese sentido, platean que <strong>Pérez solicita “más información de la aparentemente necesaria para lo que dice que va a hacer” </strong>y mantienen que <strong>habrá que estar atentos a si, “en el futuro utiliza o monetiza los emails o los móviles”</strong>, por ejemplo,<strong> </strong>porque, de hacerlo, “podría incumplir lo establecido <a href="https://www.boe.es/doue/2016/119/L00001-00088.pdf" target="_blank">en el artículo cinco" del mencionado Reglamento</a> "respecto a la limitación de finalidad". </p><p><strong>Habrá que seguirle la pista a eso y a “los cambios que vaya habiendo en la web”</strong>, añaden, ya que tanto las fuentes de la esfera jurídica como las de Gestha hacen notar que, según lo reflejado en ella, <strong>“pueden modificarse condiciones con carácter retroactivo”</strong>, lo que “genera una cierta <strong>inseguridad jurídica </strong>que debería hacer pensar a quien ha consentido dar unos datos con arreglo a unos términos y condiciones que pueden alterarse de forma retroactiva”. </p><p>Con todo, <strong>auguran que el número de inscritos</strong>, que se encamina a los 167.000 al cierre de esta edición,<strong> seguirá subiendo </strong>durante los próximos días. <strong>“Si hubo colas para que</strong><a href="https://www.infolibre.es/medios/venta-iris-vulnerables_1_1736769.html" target="_blank"><strong> te escanearan el iris</strong></a><strong> por 70 euros,</strong> <strong>cómo no va a haber voluntarios para que te den 8.000 un mes,</strong> sin necesidad de comprar ningún cupón ni nada por el estilo”, deslizan. Se refieren a la iniciativa puesta en marcha por la empresa OpenAI que logró que miles de personas vendieran esa parte del ojo. Con todo, las fuentes sondeadas recuerdan que<a href="https://www.aepd.es/documento/ps-00078-2021.pdf" target="_blank"> la Agencia Española de Protección de Datos (AEPD) sancionó con 30.000 euros </a>a un establecimiento hotelero por escanear el DNI de sus usuarios y usar las fotografías de los clientes para el control de acceso y la facturación de consumos durante su estancia allí. La entidad no recogía ningún detalle sobre la captura y destino de la imagen en la información que facilitaba sobre protección de datos personales y la AEPD lo estimó “desproporcionado”.</p><p>De vuelta a la web de Alvise, los expertos preguntados apuestan por que, “<strong>si se le pone algún límite, tal vez sea igualmente por la vía de la AEPD, </strong>que se ha mostrado restrictiva con el acopio de datos de carácter personal”,<strong> lo que no impedirá que “haya habido miles de personas bombardeadas con los mensajes ideológicos” </strong>que arroja el líder del SALF a sus fieles. Ni <strong>tampoco “la utilización que quiera hacer de la información</strong> que se le ha otorgado libremente y que, según las condiciones que aceptan,<strong> puede ser publicada y quedar a disposición de terceros</strong>”, previenen. Ello, al margen de que "no quieran pensar en la posibilidad de que el sueldo acabe en manos de gente del entorno del promotor de todo esto, como bien podría suceder". </p><p>Desde instituciones como el<strong> Instituto Nacional de Ciberseguridad (Incibe)</strong> han alertado de que <a href="https://www.infolibre.es/economia/ciberataques-amenazan-supervivencia-pymes_1_1779896.html" target="_blank">no sólo las empresas están en riesgo en la red</a>, <strong>los particulares, al publicar o facilitar información personal a través de servicios </strong><em><strong>online</strong></em><a href="https://www.incibe.es/ciudadania/tematicas/privacidad" target="_blank"><em><strong> </strong></em></a><a href="https://www.incibe.es/ciudadania/tematicas/privacidad" target="_blank"><strong>ponen en peligro su “privacidad”</strong></a><strong> </strong>y <strong>se incrementan las opciones de “ser víctimas de algún tipo de fraude</strong> o de sufrir las consecuencias negativas de esa exposición" en el ciberespacio, "ya sea por daños reputacionales" o de otra índole. A veces se encadenan malas rachas impredecibles y otras se juega con la fortuna <em>motu proprio</em>. </p>]]></description>
      <guid isPermaLink="false"><![CDATA[016a3c50-a17a-4a66-8c42-3f0f4c3fa395]]></guid>
      <pubDate><![CDATA[Tue, 13 Aug 2024 18:02:09 +0000]]></pubDate>
      <author><![CDATA[Noelia Acedo]]></author>
      <enclosure url="https://static.infolibre.es/clip/aa991a26-3d53-4d0c-9f87-1910b9d7316a_16-9-aspect-ratio_default_0.jpg" length="368562" type="image/jpeg"/>
      <media:content url="https://static.infolibre.es/clip/aa991a26-3d53-4d0c-9f87-1910b9d7316a_16-9-aspect-ratio_default_0.jpg" type="image/jpeg" fileSize="368562" width="1200" height="675"/>
      <media:title><![CDATA[Técnicos de Hacienda y expertos en datos explican a Alvise el lío en el que se mete sorteando su sueldo]]></media:title>
      <media:thumbnail url="https://static.infolibre.es/clip/aa991a26-3d53-4d0c-9f87-1910b9d7316a_16-9-aspect-ratio_default_0.jpg" width="1200" height="675"/>
      <media:keywords><![CDATA[Economía,Política,Hacienda pública,Ministerio de Consumo,Juego,Luis Pérez 'Alvise',Redes sociales,Gestha,Ley protección datos,Internet]]></media:keywords>
    </item>
    <item>
      <title><![CDATA[Víctimas de abusos de la Iglesia denuncian a la Conferencia Episcopal por filtrar sus datos en Internet]]></title>
      <link><![CDATA[https://www.infolibre.es/politica/victimas-abusos-iglesia-denuncian-conferencia-episcopal-filtrar-datos-internet_1_1844831.html]]></link>
      <description><![CDATA[<p><img src="https://static.infolibre.es/clip/d629af85-d200-44ff-8f04-a964b4c04c4c_16-9-aspect-ratio_default_0.jpg" width="1200" height="675" alt="Víctimas de abusos de la Iglesia denuncian a la Conferencia Episcopal por filtrar sus datos en Internet"></p><p><strong>Víctimas de abusos sexuales </strong>de la Iglesia han denunciado a la <strong>Conferencia Episcopal Española</strong> (CEE) por <strong>filtrar sus datos personales en Internet</strong> durante al menos 18 días.</p><p>Según ha adelantado <em>El País</em> y ha confirmado Europa Press desde el despacho Luis Felipe Gómez Ferrero, abogado de los denunciantes, la posible filtración de datos tuvo lugar <strong>entre diciembre del año pasado y enero </strong>de 2024. En este sentido, agregan que el documento incluye los <strong>nombres y apellidos de las víctimas</strong>, y, entre otros detalles, un breve relato de los hechos,<strong> la fecha y lugar</strong> en que sucedieron, la <strong>edad</strong> que tenían las víctimas cuando fueron agredidas y el <strong>tipo de abusos</strong> que sufrieron.</p><p>Asimismo, explican que el 22 de diciembre la CEE publica el <strong>informe de la auditoría sobre abusos</strong> que encargó al bufete Cremades & Calvo-Sotelo con los datos personales y confidenciales de <strong>45 víctimas</strong>, entre las que están las denunciantes.</p><p>Ese mismo día, exponen que el despacho Cremades se percata de la brecha y avisa a la CEE, que indica que hace una "supuesta manipulación" del informe en el que "parece ser que han podido <strong>eliminarse partes de datos</strong>", "lo cual da idea de que antes de publicarlo hay una <strong>intencionalidad</strong> en que se llegase a publicar el mismo", señalan en la denuncia.</p><p>También el 23 de diciembre señalan que la CEE eliminó de su web el acceso de descarga de dicho documento, pero este siguió colgado en Internet. Además, denuncian que los obispos <strong>no comunicaron el incidente a la Agencia de Protección de Datos ni a las víctimas afectadas</strong>.</p><p>En esta misma línea, el 9 de enero, el despacho Cremades volvió a avisar a la CEE de que el documento seguía en internet, que consiguió eliminarlo por completo. "Pero nuevamente, por segunda vez, no avisa a la Agencia de Protección de Datos ni a las víctimas", apuntan.</p><p>En cuanto a quién tiene la responsabilidad de los ocurrido, desde el despacho de las víctimas precisan que<strong> la CEE admite lo ocurrido, pero culpa de ello a Cremades</strong>, "alegando que fue el despacho el que le envió ese documento el 22 de diciembre y les pidió a los obispos que lo colgasen en su web".</p><p>Por otro lado, añaden que, desde el bufete Cremades, afirman que es la CEE quien comete el error al hacer cambios en su nota de prensa y <strong>sustituir un informe sin los datos confidenciales</strong>, el que estaba en un principio, por otro donde no se habían suprimido. Además, asegura que advirtió al director de comunicación de la CEE y al vicesecretario para Asuntos Económicos.</p><p>"La sucesión de hechos posterior es lamentable y nos remitimos a las afirmaciones de las partes en los medios de comunicación, puesto que ni Cremades ni CEE han tenido a bien contactar con los afectados de la brecha", subrayan.</p><p>Asimismo, desde el despacho entienden que la responsabilidad recae desde un principio en la CEE, al remitir esos datos a Cremades "<strong>sin el previo e imprescindible consentimiento de las víctimas</strong>", ya que podría tratarse "de un primer hecho enmarcable dentro de la <strong>revelación de secretos</strong>".</p><p>Por su parte, fuentes de la Agencia Española de Protección de Datos (AEPD) han confirmado a Europa Press que están investigando el asunto.</p>]]></description>
      <guid isPermaLink="false"><![CDATA[9b931746-719b-4e6b-b4fd-84d940eecc94]]></guid>
      <pubDate><![CDATA[Thu, 18 Jul 2024 15:45:17 +0000]]></pubDate>
      <author><![CDATA[infoLibre]]></author>
      <enclosure url="https://static.infolibre.es/clip/d629af85-d200-44ff-8f04-a964b4c04c4c_16-9-aspect-ratio_default_0.jpg" length="8739589" type="image/jpeg"/>
      <media:content url="https://static.infolibre.es/clip/d629af85-d200-44ff-8f04-a964b4c04c4c_16-9-aspect-ratio_default_0.jpg" type="image/jpeg" fileSize="8739589" width="1200" height="675"/>
      <media:title><![CDATA[Víctimas de abusos de la Iglesia denuncian a la Conferencia Episcopal por filtrar sus datos en Internet]]></media:title>
      <media:thumbnail url="https://static.infolibre.es/clip/d629af85-d200-44ff-8f04-a964b4c04c4c_16-9-aspect-ratio_default_0.jpg" width="1200" height="675"/>
      <media:keywords><![CDATA[Conferencia Episcopal Española,Iglesia católica,Abuso sexual,Ley protección datos]]></media:keywords>
    </item>
    <item>
      <title><![CDATA[Protección de Datos apunta a la adicción a la tecnología: "Nadie le da marihuana a un bebé, pero sí un móvil"]]></title>
      <link><![CDATA[https://www.infolibre.es/medios/proteccion-datos-apunta-diseno-adictivo-tecnologia-familia-le-da-menor-marihuana-le-da-movil_1_1838328.html]]></link>
      <description><![CDATA[<p><img src="https://static.infolibre.es/clip/10baa9aa-23ab-4be9-8ad4-fc6c391d8c5b_16-9-aspect-ratio_default_0.jpg" width="1200" height="675" alt="Protección de Datos apunta a la adicción a la tecnología: "Nadie le da marihuana a un bebé, pero sí un móvil""></p><p>La presidenta de la Agencia Española de Protección de Datos (AEPD), Mar España, ha alertado del consumo digital por parte de menores, que es "lo que más está dañando ahora mismo su salud", y supone además<strong> "el problema de convivencia más grave" </strong>para una familia, al margen de cuestiones socioeconómicas o de otro tipo. "Esta generación está teniendo <strong>unos daños que son irreversibles en salud física y mental"</strong>, ha señalado, para poner como ejemplo problemas de miopía en los niños -que han pasado de ser genéticos a presentarse en menores de cuatro años "con signos de autismo" y "simplemente porque están empantallados"- o de comportamiento que están afectando a su salud mental, con depresión, ansiedad o suicidio, a lo que se suma que el coeficiente intelectual está bajando por "primera vez desde la Segunda Guerra Mundial".</p><p>Así lo ha advertido Mar España este miércoles en Santander según recoge Europa Press, tras su intervención en el curso<em> Nuevos retos para la protección de los derechos de las personas ante el impacto de Internet</em>, organizado dentro de la programación académica de verano de la Universidad Internacional Menéndez Pelayo (UIMP) y en el que se ha dado a conocer<strong> </strong><a href="https://www.aepd.es/guias/patrones-adictivos-en-tratamiento-de-%20datos-personales.pdf" target="_blank">un informe de la AEPD sobre patrones adictivos</a> en diferentes plataformas, aplicaciones y servicios de Internet, para pasar más tiempo en ellos y aportar datos personales y de redes sociales.</p><p>Durante la presentación del estudio y en un posterior encuentro con los periodistas, Mar España ha anunciado que la agencia va a promover que <strong>Europa incluya esos patrones adictivos y engañosos</strong> -<a href="https://www.infolibre.es/medios/disenadas-adictivas-necesario-tomen-medidas-manipulacion-serie-redes-sociales_1_1672027.html" target="_blank" >el scroll infinito o notificaciones para recomendar contenidos</a>, presentes también en plataformas de vídeos y música o de juego- en las directrices que se están preparando sobre la interrelación entre el Reglamento General de Protección de Datos y el de Servicios Digitales.</p><p><a href="https://www.infolibre.es/medios/nueva-ley-europea-servicios-digitales_1_1580591.html" target="_blank" >Este último reglamento, el DSA por sus siglas en inglés</a>, establece en uno de sus artículos que las plataformas online no diseñarán, organizarán ni gestionarán sus interfaces de manera que<strong> "engañen o manipulen" a los usuarios</strong>, o de forma que "distorsionen u obstaculicen" su capacidad de tomar decisiones libres e informadas.</p><p>Y según el Reglamento General de Protección de Datos, los patrones adictivos utilizados por la industria <strong>"no están cumpliendo" los principios de limitación, minimización o finalidad</strong>, a lo que se suma la gravedad de su uso por parte de menores, que son más vulnerables y están en pleno neurodesarrollo cerebral.</p><p>La Agencia Española ha justificado su acción en Bruselas por<strong> el "elevado impacto" </strong>que estas prácticas poseen sobre el derecho a la protección de datos en los entornos digitales y los riegos y consecuencias sobre los usuarios, especialmente de niños y jóvenes.</p><p>"Nos estamos jugando la salud de las personas adultas, pero si hablamos de los menores, <strong>nos estamos jugando sus patrones de comportamiento para toda la vida </strong>y eso es algo donde tenemos que decir basta", ha sentenciado la máxima responsable de la Agencia Española, que ha vuelto a pedir<strong> un Pacto de Estado</strong> en torno a este tema porque, como ha insistido, "nos estamos jugando la salud física, emocional y mental de toda la población, pero especialmente de la gente joven".</p><p>Y también ha pedido<strong> un pacto social</strong> para que las familias se pongan de acuerdo y los teléfonos móviles de los niños solo puedan recibir llamadas y mensajes, y no un uso "ilimitado, con barra libre de datos, sin ningún tipo de filtro de contenidos" y se les deje dormir además con él en la habitación. "Es como si le dieras una caja de botellas de vino, tienes barra libre, consume las que quieras y cuando se acaben las volvemos a renovar porque la bodega me da tarifa plana", ha comparado España. "<strong>Ninguna familia le da a un bebé o a un niño de ocho años una botella de whisky, un paquete de tabaco o marihuana</strong>, porque sabe que eso afecta su salud. Pero se le está dando el móvil para que no moleste en el viaje, para que no moleste en el restaurante o pensando que estimula su desarrollo cerebral. Y es falso", ha sentenciado.</p><p>La presidenta de la AEPD también ha hecho <strong>un llamamiento a todas las comunidades autónomas </strong>pues solo una contempla en la actualidad el tratamiento de adicciones sin sustancia, cuando es una enfermedad que "se queda de por vida" y por el desembolso que supone la ayuda y curación.</p><p>Junto a la reclamación de los pactos de estado y social y al llamamiento a las regiones, la agencia española incluye en su hoja de ruta el trabajo con las instituciones europeas, como la Comisión, que tiene abiertos dos<strong> procedimientos sancionadores por posible incumplimiento del reglamento DSA</strong>, contra TikTok y contra Meta. A ello se suma <a href="https://www.infolibre.es/medios/tiktok-toxica-adictiva-redes-sociales-ue-colocado-nuevo-app-china-punto-mira_1_1777746.html" target="_blank" >la suspensión de TikTok Lite</a> anunciada por la propia compañía después de que Bruselas hiciera pública su intención de imponer medidas provisionales suspendiendo la función que recompensaba económicamente el tiempo adicional frente a la pantalla.</p><p>"<strong>Vamos a ser especialmente beligerantes</strong> para exigir que la industria cumpla con sus obligaciones y donde no sea competencia principal de la Agencia Española, vamos a hacer todo lo posible declarándonos autoridad interesada para coordinarlo a nivel europeo", ha avisado Mar España. En paralelo a lo anterior, la AEPD va a seguir colaborando en el marco de sus competencias con la CNMV, la Comisión Nacional del Mercado de Valores, organismo Coordinador de Servicios Digitales en nuestro país.</p><p>En cuanto a los patrones adictivos -que se crean con algoritmos-, el informe ha identificado <strong>30 tipos diferentes y los clasifica según el riesgo en alto, medio y bajo</strong>. La agencia avisa de las implicaciones que la incorporación de operaciones que implementan patrones adictivos a los tratamientos de datos personales tiene sobre diferentes aspectos relacionados con la protección de los mismos.</p><p>Y añade que también supone<strong> un riesgo para los derechos y libertades de los usuarios, como el derecho a su integridad física y psíquica</strong>. Asimismo, pueden "provocar discriminación, exclusión, manipulación, socavar la autonomía individual, influir en su proceso de pensamiento, sus emociones, su comportamiento, limitar su libertad de información y expresión, generar autocensura y afectar a la autonomía y desarrollo", consecuencias que pueden ser "especialmente graves" en niños y jóvenes.</p>]]></description>
      <guid isPermaLink="false"><![CDATA[a3b1d789-334a-40c7-8873-25ee802ded15]]></guid>
      <pubDate><![CDATA[Wed, 10 Jul 2024 13:24:25 +0000]]></pubDate>
      <author><![CDATA[infoLibre]]></author>
      <enclosure url="https://static.infolibre.es/clip/10baa9aa-23ab-4be9-8ad4-fc6c391d8c5b_16-9-aspect-ratio_default_0.jpg" length="1749318" type="image/jpeg"/>
      <media:content url="https://static.infolibre.es/clip/10baa9aa-23ab-4be9-8ad4-fc6c391d8c5b_16-9-aspect-ratio_default_0.jpg" type="image/jpeg" fileSize="1749318" width="1200" height="675"/>
      <media:title><![CDATA[Protección de Datos apunta a la adicción a la tecnología: "Nadie le da marihuana a un bebé, pero sí un móvil"]]></media:title>
      <media:thumbnail url="https://static.infolibre.es/clip/10baa9aa-23ab-4be9-8ad4-fc6c391d8c5b_16-9-aspect-ratio_default_0.jpg" width="1200" height="675"/>
      <media:keywords><![CDATA[Ley protección datos,Redes sociales,Internet,Tecnología digital]]></media:keywords>
    </item>
    <item>
      <title><![CDATA[Worldcoin, la empresa que escanea el iris a cambio de criptomonedas, paraliza su actividad en España]]></title>
      <link><![CDATA[https://www.infolibre.es/politica/worldcoin-empresa-escanea-iris-cambio-criptomonedas-paraliza-actividad-espana_1_1808698.html]]></link>
      <description><![CDATA[<p><img src="https://static.infolibre.es/clip/1deb9d82-b382-41d5-b37a-57fba26ada8e_16-9-aspect-ratio_default_0.jpg" width="1200" height="675" alt="Worldcoin, la empresa que escanea el iris a cambio de criptomonedas, paraliza su actividad en España"></p><p>La empresa Worldcoin se ha comprometido de manera jurídicamente vinculante a <strong>no reanudar su actividad en España</strong> hasta final de año o hasta la resolución final de la autoridad de protección de datos de Baviera (4 de junio de 2024), según ha informado la Agencia Española de Protección de Datos (AEPD) y recoge por Europa Press</p><p>La AEPD ha recordado que ordenó el pasado marzo una medida cautelar para que Tools for Humanity Corporation cesase en <strong>la recogida y tratamiento de datos personales </strong>que estaba realizando en España en el marco de su proyecto Worldcoin.</p><p>Mientras tanto, las investigaciones de la Bayerisches Landesamt für Datenschutzaufsicht (BayLDA), la autoridad de protección de datos de Baviera (Alemania), donde la empresa tiene su establecimiento principal en Europa, están avanzando y<strong> se espera que concluyan pronto con una decisión final </strong>alineada con todas las autoridades de supervisión europeas interesadas.</p><p>En este contexto, la compañía se ha comprometido de forma jurídicamente vinculante a <strong>no reanudar su actividad en España hasta final de año </strong>o hasta que la BayLDA adopte una resolución definitiva en relación con el tratamiento de datos realizado por la compañía.</p><p>Este compromiso legalmente vinculante adoptado por la empresa no afecta a <strong>las competencias de la BayLDA o de la AEPD</strong> para adoptar medidas de supervisión adicionales en caso de incumplimiento de estas obligaciones.</p><p>La medida cautelar, establecida en<strong> el artículo 66.1</strong> del Reglamento General de Protección de Datos (RGPD) para proteger los derechos y las libertades de interesados, fue avalada por la Audiencia Nacional al considerar que prevalecía "la salvaguarda del interés general que consiste en la protección del derecho a la protección de datos personales de los interesados frente al interés particular de la empresa".</p><p>Con posterioridad a la medida provisional impuesta por la Agencia, Tools for Humanity Corporation <strong>anunció cambios en su funcionamiento</strong>, como la introducción de controles para verificar la edad o la posibilidad de eliminar el código del iris.</p><p><strong>La AEPD está colaborando con la autoridad de protección de datos de Baviera</strong>, al ser esta la autoridad principal en cuanto al tratamiento de datos, siendo la AEPD autoridad interesada, tal y como establece el RGPD.</p>]]></description>
      <guid isPermaLink="false"><![CDATA[cdf60e3d-7677-412e-8900-0965067811ec]]></guid>
      <pubDate><![CDATA[Tue, 04 Jun 2024 12:40:48 +0000]]></pubDate>
      <author><![CDATA[infoLibre]]></author>
      <enclosure url="https://static.infolibre.es/clip/1deb9d82-b382-41d5-b37a-57fba26ada8e_16-9-aspect-ratio_default_0.jpg" length="315000" type="image/jpeg"/>
      <media:content url="https://static.infolibre.es/clip/1deb9d82-b382-41d5-b37a-57fba26ada8e_16-9-aspect-ratio_default_0.jpg" type="image/jpeg" fileSize="315000" width="1200" height="675"/>
      <media:title><![CDATA[Worldcoin, la empresa que escanea el iris a cambio de criptomonedas, paraliza su actividad en España]]></media:title>
      <media:thumbnail url="https://static.infolibre.es/clip/1deb9d82-b382-41d5-b37a-57fba26ada8e_16-9-aspect-ratio_default_0.jpg" width="1200" height="675"/>
      <media:keywords><![CDATA[Ley protección datos,Tecnología digital,Inteligencia artificial]]></media:keywords>
    </item>
    <item>
      <title><![CDATA[La Policía investiga el robo de datos de inscritos y de gestión económica de Podemos]]></title>
      <link><![CDATA[https://www.infolibre.es/politica/policia-investiga-robo-datos-inscritos-gestion-economica_1_1753694.html]]></link>
      <description><![CDATA[<p><img src="https://static.infolibre.es/clip/f3be52f8-cc50-41ef-ba56-ba94f296410e_16-9-aspect-ratio_default_0.jpg" width="1200" height="675" alt="La Policía investiga el robo de datos de inscritos y de gestión económica de Podemos"></p><p><strong>Podemos ha sufrido un ciberataque</strong> que ha provocado la fuga de datos personales de los inscritos y también otros de gestión económica del partido y que está siendo investigado por agentes el Grupo de Investigación Tecnológica de la Brigada de Policía Judicial de Madrid, según ha adelantado <a href="https://www.eldiario.es/politica/policia-investiga-ciberataque-robo-datos-inscritos-gestion-economica-partido_1_11246602.html" target="_blank">elDiario.es</a> y recoge Europa Press.</p><p>La IP desde la que se originó el hackeo se ubica en <strong>Moldavia </strong>aunque los investigadores han corroborado al citado medio que podría tratarse de una maniobra para "enmascarar el auténtico origen".</p><p>Al parecer, la formación morada<strong> también ha informado sobre este robo de datos a la Agencia Española de Protección de Datos</strong> aunque la documentación robada no parece estar relacionada con asuntos de índole política o de estrategia y se desconoce por el momento el interés de los atacantes y el destino final de los datos sustraídos.</p>]]></description>
      <guid isPermaLink="false"><![CDATA[f64da506-4cbe-4315-9c6e-30c0a619f34b]]></guid>
      <pubDate><![CDATA[Thu, 28 Mar 2024 14:00:14 +0000]]></pubDate>
      <author><![CDATA[infoLibre]]></author>
      <enclosure url="https://static.infolibre.es/clip/f3be52f8-cc50-41ef-ba56-ba94f296410e_16-9-aspect-ratio_default_0.jpg" length="4984213" type="image/jpeg"/>
      <media:content url="https://static.infolibre.es/clip/f3be52f8-cc50-41ef-ba56-ba94f296410e_16-9-aspect-ratio_default_0.jpg" type="image/jpeg" fileSize="4984213" width="1200" height="675"/>
      <media:title><![CDATA[La Policía investiga el robo de datos de inscritos y de gestión económica de Podemos]]></media:title>
      <media:thumbnail url="https://static.infolibre.es/clip/f3be52f8-cc50-41ef-ba56-ba94f296410e_16-9-aspect-ratio_default_0.jpg" width="1200" height="675"/>
      <media:keywords><![CDATA[Podemos,Ley protección datos,Policía]]></media:keywords>
    </item>
    <item>
      <title><![CDATA[La Audiencia Nacional avala la paralización del proyecto que recopila iris a cambio de criptomonedas]]></title>
      <link><![CDATA[https://www.infolibre.es/politica/audiencia-nacional-prohibe-empresa-recopilar-datos-iris-cambio-criptomonedas_1_1738515.html]]></link>
      <description><![CDATA[<p><img src="https://static.infolibre.es/clip/1deb9d82-b382-41d5-b37a-57fba26ada8e_16-9-aspect-ratio_default_0.jpg" width="1200" height="675" alt="La Audiencia Nacional avala la paralización del proyecto que recopila iris a cambio de criptomonedas"></p><p>La Audiencia Nacional ha avalado <strong>la suspensión cautelar</strong> de <a href="https://www.infolibre.es/medios/venta-iris-vulnerables_1_1736769.html" target="_blank" >la recopilación de datos personales en España a través del iris, los ojos y el rostro</a> por parte de la empresa Worldcoin para su posterior procesamiento a cambio de un pago en una criptomoneda ingresada en un monedero virtual vinculado a una aplicación. En un auto de este lunes, recogido por Europa Press, la Sala de lo <strong>Contencioso-Administrativo </strong>rechaza la medida cautelarísima solicitada por <strong>Tools for Humanity Corporation GMBH</strong> (TFH), perteneciente a la citada empresa, contra la orden de la <strong>Agencia Española de Protección de Datos </strong>(AEPD) que <a href="https://www.infolibre.es/politica/proteccion-datos-paraliza-proyecto-escanea-iris-cambio-criptomonedas_1_1734733.html" target="_blank" >paralizó la recopilación de esa información</a>.</p><p>Los magistrados consideran que atendiendo a la ponderación de los intereses en conflicto y, a la vista de las circunstancia concurrentes, debe prevalecer "la salvaguarda del interés general que consiste en la protección del derecho vinculado a los <strong>datos personales </strong>de los interesados frente al interés particular de la empresa recurrente de contenido fundamentalmente económico".</p><p>En este contexto, la Audiencia Nacional entiende que en caso de obtener una sentencia favorable la compañía <strong>podrá ser indemnizada</strong>, por lo que no se produciría un perjuicio irreparable como alega en su recurso. En el mismo, la empresa alegaba que la resolución de la Agencia de Protección de Datos le supondría elevadísimos daños y perjuicios irreparables tanto en España como a nivel mundial. Además, esgrimía que la resolución se había extralimitado en su competencia al considerar que debía ser la <strong>autoridad de Baviera (Alemania)</strong>, donde la empresa está domiciliada, la <strong>competente </strong>para controlar si la empresa cumple con la normativa de protección de datos.</p><p>El auto de la Sala se basa en la resolución de la AEPD que explica cómo el proyecto de Worldcoin es un <strong>tratamiento de datos biométricos</strong> que afecta a numerosas personas, incluidos menores, y sin constar acreditado, según la propia agencia, el <strong>consentimiento</strong> y la información proporcionada acerca de dicho tratamiento.</p><p>La resolución de la AEPD hace referencia a varias reclamaciones en las que se indica que se están capturando<strong> datos de menores </strong>y se denuncia la insuficiente información suministrada y que no se permite la retirada del consentimiento, remitiendo al interesado al borrado de la aplicación. Así las cosas, la Audiencia Nacional señala que a los efectos de este incidente de medida cautelarísima, la AEPD resulta competente para adoptar dicha medida sin perjuicio de lo que se acuerde cuando se resuelva sobre el fondo del asunto.</p><p>Por último, la Sala recuerda que <strong>la resolución es temporal,</strong> por un máximo de tres meses, por lo que si se le diera la razón en cuanto al fondo del asunto no impediría que esta empresa pudiera continuar su actividad en el futuro.</p>]]></description>
      <guid isPermaLink="false"><![CDATA[196b8ce9-f58b-4013-9532-be623ea7d3c6]]></guid>
      <pubDate><![CDATA[Mon, 11 Mar 2024 12:08:58 +0000]]></pubDate>
      <author><![CDATA[infoLibre]]></author>
      <enclosure url="https://static.infolibre.es/clip/1deb9d82-b382-41d5-b37a-57fba26ada8e_16-9-aspect-ratio_default_0.jpg" length="315000" type="image/jpeg"/>
      <media:content url="https://static.infolibre.es/clip/1deb9d82-b382-41d5-b37a-57fba26ada8e_16-9-aspect-ratio_default_0.jpg" type="image/jpeg" fileSize="315000" width="1200" height="675"/>
      <media:title><![CDATA[La Audiencia Nacional avala la paralización del proyecto que recopila iris a cambio de criptomonedas]]></media:title>
      <media:thumbnail url="https://static.infolibre.es/clip/1deb9d82-b382-41d5-b37a-57fba26ada8e_16-9-aspect-ratio_default_0.jpg" width="1200" height="675"/>
      <media:keywords><![CDATA[Venta datos personales,Audiencia Nacional,Ley protección datos]]></media:keywords>
    </item>
    <item>
      <title><![CDATA[Los pobres venden ahora su iris: el escándalo de subastar datos biométricos por un puñado de criptomonedas]]></title>
      <link><![CDATA[https://www.infolibre.es/medios/venta-iris-vulnerables_1_1736769.html]]></link>
      <description><![CDATA[<p><img src="https://static.infolibre.es/clip/11873432-7653-4c08-afbd-73c90401d694_16-9-aspect-ratio_default_0.jpg" width="1200" height="675" alt="Los pobres venden ahora su iris: el escándalo de subastar datos biométricos por un puñado de criptomonedas"></p><p><a href="https://twitter.com/telediario_tve/status/1765390118590816448?t=nCJfkce3vFP_d01a2B7faw&s=19" target="_blank">"Te regalan dinero, ¿quién no quiere dinero gratis?</a>". Esta frase se ha escuchado a lo largo y ancho de España durante las últimas semanas. Desde principios de año, en <strong>Madrid, Barcelona, Mallorca, Bilbao o A Coruña</strong> se han registrado considerables colas delante de una treintena de pequeños <em>stands </em>de centros comerciales, estaciones de transporte público o en plena calle<em>. </em>Decorados con una pancarta blanca en la que se podía leer "la economía mundial pertenece a todos", las verdaderas protagonistas eran unas pequeñas esferas plateada, conocidas como <strong>orbes, encargadas de escanear a cambio de un puñado de criptomonedas el iris</strong>, un dato muy sensible ya que que se mantiene inalterable a lo largo del tiempo. </p><p>Hasta este miércoles. La Agencia Española de Protección de Datos (AEPD) <a href="https://www.infolibre.es/politica/proteccion-datos-paraliza-proyecto-escanea-iris-cambio-criptomonedas_1_1734733.html" target="_blank">dio un golpe encima de la mesa</a> y ordenó a Tools for Humanity Corporation <strong>paralizar de forma inmediata</strong> a partir del este jueves —que no prohibición, como apuntan algunos medios— de la recogida y tratamiento de datos personales que está realizando en España en el marco de su proyecto Worldcoin y proceda a bloquear los ya recopilados. </p><p>"Los datos biométricos son de <strong>una sensibilidad especial, nos acompaña toda la vida</strong>. El iris es, además, uno de los más preciados", explica Eduard Blasi, abogado digital y divulgador del canal <a href="https://www.instagram.com/techandlaw.lab/?hl=es" target="_blank">Tech and Law</a> en Instagram. Según esta <em>startup </em>con sede en el paraíso fiscal de las Islas Caimán y fundada en 2019 por Sam Altman, director ejecutivo de OpenAI, su objetivo es registrar el iris de toda la población mundial para que sea más sencillo distinguir si detrás de un avatar en Internet hay una persona o una máquina. Es lo que Worldcoin llama "pasaporte de humanidad". </p><p>Sin embargo, según la AEPD, lo que estaría haciendo violaría el <a href="https://www.infolibre.es/politica/400-sanciones-45-millones-cuatro-anos-reglamento-proteccion-datos-espana_1_1236029.html" target="_blank" >Reglamento Europeo de Protección de Datos (RGPD)</a> ya que la empresa estaría ofreciendo "una <strong>información insuficiente</strong>", no permitiendo "la <strong>retirada del consentimiento</strong>" y captando "<strong>datos de menores</strong>". ¿A qué se debe la presencia de jóvenes en estas colas? "Tienen una visión de la tecnología <em>naif </em>o de que no hay nada que hacer, que el futuro es así", señala Rebeca Cordero, profesora de sociología aplicada de la Universidad Europea. Para esta experta, ven este tipo de oportunidades como una vía para "obtener dinero fácil" o "como un ascensor social por el valor al alza de las propias criptomonedas". "Sin olvidarse de que tienen una gran desafección social y política", indica. </p><p>Pero además de menores, curiosos y periodistas, en estas colas ante los <em>stands </em>de Worldcoin también <strong>había muchos migrantes y personas vulnerables sin recursos</strong>. "No sólo se aprovechan de la población en riesgo, también de la falsa percepción de seguridad con respecto a los datos", apunta Cordero que recuerda que "al final los que están en riesgo de precariedad vital no tienen una visión de futuro, viven el día a día y abrazan cualquier opción cortoplacista". </p><p>Esto, en realidad, es la práctica habitual de esta empresa. Antes de aterrizar en Europa, se desplegó por países en vías de desarrollo de África y Asia, olvidándose prácticamente de EEUU a pesar de tener su origen al otro lado del Atlántico. "¿Por qué se dirigió primero a comunidades de bajos ingresos, en lugar de a zonas con entusiastas de las criptomonedas?", se preguntaba un experto en un <a href="https://www.technologyreview.com/2022/04/06/1048981/worldcoin-cryptocurrency-biometrics-web3/" target="_blank">informe de MIT Technology Review publicado en abril de 2022</a> donde ya se destacaba como Worldcoin<strong> se aprovecha de las personas empobrecidas y de los países de bajos ingresos</strong> para hacer crecer su red de datos. </p><p>Y es que las promesas de Worldcoin de dinero rápido por un proceso totalmente indoloro y de pocos minutos calan entre los más vulnerables. Sobre todo, porque prácticamente todo vale cuando llegar a fin de mes cuesta. "En EEUU, por ejemplo, <strong>hay gente que dona semen o un órgano</strong>", expone Cordero que insiste en que "<strong>la necesidad de comer, de sobrevivir, va por encima de cualquier otra cosa</strong>" aunque "desde una posición de privilegio, como la que tenemos una gran parte de la población, no se entienda". </p><p>Pero esta <em>startup </em>no solo saca rédito de la vulnerabilidad económica,<strong> también se aprovecha del desconocimiento sobre esta tecnología</strong>. "Nos preocupa la opacidad de toda la estructura: de la propia empresa, de los usos de los usuarios y de la transformación que hacen de la información", explica Carlos Bajo, responsable de derechos digitales de Oxfam Intermón. </p><p>Así, lo normal en una de estas colas para esperar el turno ante el orbe era escuchar frases como "me van a regalar dinero" o "voy a lograr dinero gratis". "Con estas frases se transmite un desconocimiento total, de<strong> ‘solamente hay que poner el ojo’</strong>. Es una falta de conciencia sobre la tecnología y las plataformas. Es la misma filosofía que la de <a href="https://www.infolibre.es/medios/meta-twitter-tiktok-redes-sociales-fin-gratis_1_1608281.html" target="_blank" >las redes sociales, el producto eres tú</a>", señala Bajo que apunta que, en este caso, además están pagando: "Si te pagan hay un rendimiento detrás".</p><p>Al final, lo que estaban haciendo era pagar por un dato biométrico que permite la identificación unívoca y que puede asociarse con información sanitaria sensible. <strong>"Nadie da nada gratis"</strong>, defiende Cordero que recuerda que este tipo de prácticas también se lleva a cabo en otros ámbitos como el marketing dentro del actual "proceso de vigilancia y de control". </p><p>En Tools for Humanity Corporation nunca han escondido esta ambición de aprovecharse de los más vulnerables. En su <a href="https://whitepaper.worldcoin.org/" target="_blank">declaración de intenciones</a>, esta <em>startup </em>defiende que podría aumentar "significativamente" la igualdad de oportunidades a nivel mundial. El propio Altman dijo en junio de 2021 a <a href="https://www.bloomberg.com/news/articles/2021-06-29/sam-altman-s-worldcoin-will-give-free-crypto-for-eyeball-scans" target="_blank">Bloomberg</a> que siempre ha estado "muy interesado" en<strong> conceptos como "la renta básica universal" y "la redistribución de la riqueza global"</strong>. Aunque, tal y como destaca <a href="https://www.technologyreview.com/2022/04/06/1048981/worldcoin-cryptocurrency-biometrics-web3/" target="_blank">MIT Technology Review</a>, "hasta ahora todo lo que se ha hecho es construir una base de datos biométricos a partir de los cuerpos de los pobres". </p><p>"<strong>Se plantea en términos filantrópicos, pero está en manos privadas</strong>", señala Carlos Bajón que asegura que, según "lo que transmiten en su web", se desprende un cierto "malabarismo fantástico" e "ingeniería discursiva": "Lo que quieren transmitir es que ‘no estoy comprando tu iris, te estoy regalando una nueva criptomoneda, pero para regalarte necesito que te identifiques en un base de datos biométricos, que son los más sensibles, a cambio de nuestra moneda"'. Cuando, en realidad, esta información "es extremadamente sensible" y<strong> "podrían tener el poder de controlar a las personas"</strong>.</p><p>Y en España esta base habría recopilado ya información de <strong>más de 400.000 personas</strong>, según la AEDP. Según datos de la propia empresa de <a href="https://worldcoin.org/blog/announcements/record-world-id-interest-argentina-leads-new-innovation-500k-verifications" target="_blank">principios de 2024</a>, el 0,8% de la población española ya había escaneado su iris. En <a href="https://worldcoin.org/blog/announcements/interest-world-id-continues-grow-iberia-500k-verifications" target="_blank">diciembre</a>, la <em>startup </em>cifraba en 300.000 las personas que había pasado por delante de su orbe sólo en España. En todo el mundo, más de cuatro millones.</p><p>Sin embargo, todos estos datos están ahora mismo, y durante al menos tres meses —aunque se podría extender hasta seis—, bloqueados. Así, mientras al principio de semana al entrar en la <em>app </em>de Worldcoin salían <strong>hasta 35 espacios </strong>donde escanear el iris, este viernes ya no deja pedir cita en absolutamente ninguno. Cabe destacar que la selección de los lugares dónde colocar estos <em>stands </em>no es casual. "La elección de los centros comerciales o estaciones de transporte hacen referencia a estos colectivos con menos recursos", admite Carlos Bajo de Oxfam Intermón. </p><p>Según explica la AEDP en <a href="https://www.aepd.es/prensa-y-comunicacion/notas-de-prensa/la-agencia-ordena-medida-cautelar-que-impide-a-worldcoin-seguir-tratando-datos-personales-en-espana" target="_blank">un comunicado</a>, "la adopción de medidas urgentes de prohibición temporal de las actividades está justificada para evitar daños potencialmente irreparables y no tomarlas privaría a las personas de la protección a la que tienen derecho según el RGPD". "La empresa no puede tratar los datos personales ya recopilados. <strong>No pueden destruirlos, que sería un tratamiento. Los mantienen, pero bloqueados</strong>", matizan a <strong>infoLibre</strong>. </p><p>¿Qué tiene almacenado Worldcoin? El orbe hace un escaneo del ojo, en concreto del iris, <strong>uno de los datos biométricos más unívocos</strong>: no hay dos iguales y, además, incluso permite conocer el estado de salud de una persona. Esta información puede usarse en métodos de identificación biométrica en programas de identificación ciudadana o en control fronterizo. Su uso en espacios de acceso público viola, según defienden desde la sociedad civil, derechos fundamentales ya que puede puede <a href="https://www.infolibre.es/medios/futuro-reglamento-europea-inteligencia-artificial-no-garantiza-proteccion-derechos-fundamentales_1_1614179.html" target="_blank">ampliar la discriminación, el racismo y la pobreza</a>. </p><p>"Worldcoin <strong>confirma que no recogen el dato biométrico sino un código</strong>", sostiene el abogado Eduard Blasi, que apunta que aquí interviene una función <em>hash</em>, una secuencia criptográfica, que contaría con una capa de seguridad que codifica la información obtenida. "Quiere crear una base de datos fidedigna. Esto al final parece que es un propósito que tiene un sentido y, si solo hace eso, no se puede pensar de facto que hay un incumplimiento", explica este experto</p><p>Los datos no son lo único que están bloqueados con esta decisión: <strong>toda la parte de transacciones económicas también</strong>. Aquellos usuarios que tengan criptomonedas logradas tras vender su iris no podrán usarlas mientras dure esta paralización. El pago solía estar entre 15 y 25 <em>worldcoins</em> que, al cambio, podían suponer entre 60 y 100 euros. Es decir, aquellos que no hayan acudido ya a convertirlo en dinero en efectivo, no podrán ni cambiarlas a euros ni transferirlas a una cuenta bancaria durante al menos los próximos tres meses.  </p><p>"Una de las cosas importantes de esta suspensión cautelar es asegurarse de aclarar todas estas cuestiones. Primero se desarrollan las actividades y después se desarrolla la legislación. <strong>Necesitamos que sea al revés, que primero haya garantías jurídicas</strong>", argumenta Carlos Bajo.</p><p>No obstante, desde Worldcoin, <a href="https://worldcoin.org/blog/worldcoin/worldcoin-aepd-spain" target="_blank">explican</a> que <strong>cumplen "totalmente con todas las leyes"</strong>: "Nos decepcionó que el regulador español eludiera el proceso y las normas aceptadas por la UE, lo que no nos deja más remedio que <a href="https://www.schwaebische.de/regional/bayern/worldcoin-klagt-gegen-verbot-in-spanien-2331037" target="_blank">presentar una demanda</a>". Su asesor legal, Tim Wybitul, matiza que la orden de la AEPD "viola los requisitos del RGPD y es ilegal". </p><p>"Esta situación podría haberse evitado si se hubiera seguido el proceso legal bien establecido y aplicable en toda Europa", sostiene en declaraciones enviadas a <strong>infoLibre</strong>. "La medida de la AEDP <strong>es cautelar y no implica que sea ilegal</strong>, eso aún está por ver", recuerda Blasi que apunta, no obstante, que es la primera decisión de este estilo que se toma en este sentido en Europa. </p><p>Las autoridades de protección de datos de <strong>Alemania </strong>—donde Tools for Humanity Corporation tiene su sede europea—, <strong>Reino Unido</strong>, <strong>Francia </strong>y <strong>Portugal </strong>están estudiando el caso. Fuera de Europa, <strong>Argentina</strong>, <strong>Corea del Sur</strong> y <strong>Nigeria </strong>también están investigando a la empresa. </p><p>Más lejos han ido en <strong>Kenia</strong>. En agosto de 2023, las autoridades de este país africano decidieron directamente prohibir esta recolección de datos y llegaron a acusar a los fundadores del proyecto de espionaje. Además, a finales de diciembre, <a href="https://techcrunch.com/2023/12/20/worldcoin-is-no-longer-offering-orb-verification-in-india-brazil-and-france/" target="_blank">TechCrunch</a> publicó que los orbes ya no estarían disponibles ya <strong>ni en Brasil, ni en Francia ni en India</strong>, una salida repentina explicada por la <em>startup </em>cómo una extraña "reducción temporal". </p><p>La AEDP toma así la iniciativa con una decisión sobre Worldcoin que recuerda a lo que sucedió en Italia con ChatGPT. <a href="https://www.gpdp.it/home/docweb/-/docweb-display/docweb/9870847" target="_blank">La agencia italiana de protección de datos</a> restringió a principios de abril de 2023 el acceso a esta herramienta. "Una vez subsanó determinadas cuestiones, <strong>pudo volver a operar con normalidad en territorio italiano</strong>", reconoce Blasi. </p><p>¿Puede pasar lo mismo ahora? "<strong>Quizás si Worldcoin soluciona algunos aspectos, se le permita volver a operar</strong>", apunta este abogado. Habrá que esperar al mes de junio.</p>]]></description>
      <guid isPermaLink="false"><![CDATA[6196707f-7d18-4310-9d1e-735074bd29f6]]></guid>
      <pubDate><![CDATA[Sat, 09 Mar 2024 18:39:09 +0000]]></pubDate>
      <author><![CDATA[Alba Precedo]]></author>
      <enclosure url="https://static.infolibre.es/clip/11873432-7653-4c08-afbd-73c90401d694_16-9-aspect-ratio_default_0.jpg" length="317089" type="image/jpeg"/>
      <media:content url="https://static.infolibre.es/clip/11873432-7653-4c08-afbd-73c90401d694_16-9-aspect-ratio_default_0.jpg" type="image/jpeg" fileSize="317089" width="1200" height="675"/>
      <media:title><![CDATA[Los pobres venden ahora su iris: el escándalo de subastar datos biométricos por un puñado de criptomonedas]]></media:title>
      <media:thumbnail url="https://static.infolibre.es/clip/11873432-7653-4c08-afbd-73c90401d694_16-9-aspect-ratio_default_0.jpg" width="1200" height="675"/>
      <media:keywords><![CDATA[Ley protección datos,Inteligencia artificial,Venta datos personales,Tecnología digital]]></media:keywords>
    </item>
    <item>
      <title><![CDATA[Protección de Datos paraliza el proyecto que escanea el iris a cambio de criptomonedas]]></title>
      <link><![CDATA[https://www.infolibre.es/politica/proteccion-datos-paraliza-proyecto-escanea-iris-cambio-criptomonedas_1_1734733.html]]></link>
      <description><![CDATA[<p><img src="https://static.infolibre.es/clip/e03932ed-be22-4b7e-9ccc-08afeccd8aa7_16-9-aspect-ratio_default_0.jpg" width="1200" height="675" alt="Protección de Datos paraliza el proyecto que escanea el iris a cambio de criptomonedas"></p><p>La <strong>Agencia Española de Protección de Datos (AEPD)</strong> ha ordenado una medida cautelar contra Tools for Humanity Corporation, a la que ha exigido que cese de forma inmediata en la recogida y tratamiento de datos personales que está realizando en España en el marco de su <strong>proyecto Worldcoin</strong>, que escanea el iris a cambio de criptomonedas, y proceda a bloquear los ya recopilados. Así lo ha dado a conocer este miércoles la AEPD, que ha recibido varias reclamaciones contra esta empresa en las que se denuncian, entre otras cuestiones, "una información insuficiente, la captación de datos de menores o que no se permite la retirada del consentimiento", según informa Europa Press. </p><p>En este sentido, el organismo que dirige Mar España ha detallado que esta medida cautelar obedece a una "<strong>decisión basada en circunstancias excepcionales</strong>, en la que resulta necesario y proporcionado adoptar medidas provisionales dirigidas al cese inmediato de ese tratamiento de datos personales, prevenir su posible cesión a terceros y salvaguardar del derecho fundamental a la protección de datos personales".</p><p>La compañía Tools for Humanity Corporation tiene su establecimiento europeo en Alemania. Esta actuación de la Agencia se realiza en el marco del <strong>procedimiento establecido en el artículo 66.1 del RGPD </strong>que establece que, en circunstancias excepcionales, cuando una autoridad de control interesada —en este caso la AEPD— considere urgente intervenir para proteger los derechos y libertades de las personas, podrá adoptar medidas provisionales con efectos jurídicos en su territorio y con un periodo de validez que no podrá ser superior a tres meses.</p><p>La Agencia considera que la adopción de medidas urgentes de prohibición temporal de las actividades "<strong>está justificada para evitar daños potencialmente irreparables</strong> y que no tomarlas privaría a las personas de la protección a la que tienen derecho según el RGPD".</p>]]></description>
      <guid isPermaLink="false"><![CDATA[138082f9-833a-446f-b56c-22deb23ffd43]]></guid>
      <pubDate><![CDATA[Wed, 06 Mar 2024 14:08:47 +0000]]></pubDate>
      <author><![CDATA[infoLibre]]></author>
      <enclosure url="https://static.infolibre.es/clip/e03932ed-be22-4b7e-9ccc-08afeccd8aa7_16-9-aspect-ratio_default_0.jpg" length="1473752" type="image/jpeg"/>
      <media:content url="https://static.infolibre.es/clip/e03932ed-be22-4b7e-9ccc-08afeccd8aa7_16-9-aspect-ratio_default_0.jpg" type="image/jpeg" fileSize="1473752" width="1200" height="675"/>
      <media:title><![CDATA[Protección de Datos paraliza el proyecto que escanea el iris a cambio de criptomonedas]]></media:title>
      <media:thumbnail url="https://static.infolibre.es/clip/e03932ed-be22-4b7e-9ccc-08afeccd8aa7_16-9-aspect-ratio_default_0.jpg" width="1200" height="675"/>
      <media:keywords><![CDATA[Ley protección datos]]></media:keywords>
    </item>
    <item>
      <title><![CDATA[Inquietudes digitales]]></title>
      <link><![CDATA[https://www.infolibre.es/opinion/ideas-propias/inquietudes-digitales_129_1706457.html]]></link>
      <description><![CDATA[<p><img src="https://static.infolibre.es/clip/45d2441d-d344-4270-9262-2676a503f932_16-9-discover-aspect-ratio_default_0.jpg" width="1200" height="675" alt="Inquietudes digitales"></p><p>Estoy echando cuentas a los sitios donde he dejado rastro de mis datos personales. Es desbordante. Qué descontrol. <strong>Me encantaría tener un cuadro de mando mío propio personal</strong> que identifique y registre todos esos sitios. Y que me permita desconectarme de uno, de algunos o de todos ellos a discreción. Y borrar mi rastro. Permanentemente, o a ratos ¿Es esto posible?</p><p>Por nombrar algunos que, asumiendo que por haberlos utilizado disponen de mis datos personales, me refiero a los omnipresentes ecosistemas de las grandes plataformas tecnológicas, pero el listado es probablemente infinito como mi desconocimiento de todos sus integrantes. Obviamente, confío en esas compañías que disponen de mis datos personales, o al menos confié en el momento en el que decidí entregárselos. Para eso está el Reglamento General de Protección de Datos (RGPD) que nos otorgamos la ciudadanía europea en 2018. Un reglamento que es referencia y aspiración en muchas jurisdicciones del mundo como <strong>paso previo imprescindible al avance ordenado</strong>, seguro y sostenible de la economía digital, de la digitalización de absolutamente todo.   </p><p>Autenticar nuestra identidad en servicios digitales es un gesto cotidiano, a menudo despreocupado o incluso inconsciente, rutinario. En el mundo analógico utilizamos documentación oficial expedida por las autoridades nacionales competentes como el DNI o el Pasaporte, y desde fecha más reciente y <strong>para trámites digitales con las administraciones públicas</strong>, el certificado digital (de los que ya hay 14,3 millones emitidos) y la Cl@ve PIN, con 19 millones de usuarios registrados según el Observatorio de Administración Electrónica. </p><p>Para sitios digitales privados los medios de autenticación son diversos y a menudo, de nuevo, bastan tus credenciales en el ecosistema Google, tu usuario de Facebook o tu Apple ID. En el caso de los sitios, o más bien las transacciones sensibles, como son las financieras con nuestro banco o las compras en ecommerce, para que estas sean consideradas seguras deben solicitar dos factores de autenticación, una combinación de al menos dos de los tres siguientes: algo que solo tú sabes (una contraseña o un PIN), algo que solo tú tienes (tu teléfono móvil, al que te llega un <em>token</em> o un código temporal vía SMS o app), y/o algo que solo tú eres (algún atributo personal que permite demostrar la biometría como la huella digital, la voz, el reconocimiento facial, etc.)<strong> La biometría está ya integrada en muchos de nuestros dispositivos</strong>, en cuya fabricación están de nuevo involucradas muchas de las empresas tecnológicas antes aludidas. </p><p>La identidad digital europea es una demanda prácticamente unánime. De acuerdo con <a href="https://europa.eu/eurobarometer/surveys/detail/2270" target="_blank">el Eurobarómetro 518 sobre derechos y principios digitales</a>, el 85% de los ciudadanos de la UE demandaban en 2021 una identificación digital única segura para todos los servicios en línea, públicos y privados. Pues bien, en noviembre de 2023 los legisladores europeos alcanzaron un acuerdo provisional sobre Reglamento eIDAS-2 que supone una evolución del <a href="https://eur-lex.europa.eu/legal-content/ES/TXT/PDF/?uri=CELEX:32014R0910" target="_blank">Reglamento sobre identificación electrónica y servicios de confianza para las transacciones electrónicas en el mercado interior</a> (Reglamento eIDAS) de 2014 para proporcionar a ciudadanos europeos y otros residentes un medio de identidad digital europeo armonizado basado en el concepto de <em>wallet</em>, voluntario y gratuito para las personas físicas, que habrá de ser provisto por cada país como parte de un sistema nacional de identificación electrónica. Habilitará, además,<strong> un panel de control de transacciones y la posibilidad de denunciar violaciones </strong>de la protección de datos, esa protección que otorga el RGPD de 2018. </p><p>Que dispongamos de un método digital oficial de identificación y autenticación –un servicio público provisto por las autoridades competentes– que a su vez registre, para consulta exclusiva de la persona titular de la identidad, los lugares donde se ha utilizado es absolutamente necesario. Como necesario es que seamos conscientes de<strong> la importancia de la autoprotección</strong>, de la responsabilidad que supone cuidar de nuestros datos, de nuestras credenciales de acceso, de nuestros dispositivos y de nuestra huella digital, esa aura invisible a nuestros ojos, pero no a los de terceros que no sabemos exactamente quiénes son, ni qué pueden querer de nosotras cuando ya no nos acordemos de ellos.</p><p>______________________</p><p><em><strong>Verónica López Sabater </strong></em><em>es consultora de</em><em><strong> Afi.</strong></em></p>]]></description>
      <guid isPermaLink="false"><![CDATA[cd7e911b-f505-4a92-8f16-edfc4e8a1475]]></guid>
      <pubDate><![CDATA[Mon, 12 Feb 2024 20:31:44 +0000]]></pubDate>
      <author><![CDATA[Verónica López Sabater]]></author>
      <enclosure url="https://static.infolibre.es/clip/45d2441d-d344-4270-9262-2676a503f932_16-9-discover-aspect-ratio_default_0.jpg" length="56367" type="image/jpeg"/>
      <media:content url="https://static.infolibre.es/clip/45d2441d-d344-4270-9262-2676a503f932_16-9-discover-aspect-ratio_default_0.jpg" type="image/jpeg" fileSize="56367" width="1200" height="675"/>
      <media:title><![CDATA[Inquietudes digitales]]></media:title>
      <media:thumbnail url="https://static.infolibre.es/clip/45d2441d-d344-4270-9262-2676a503f932_16-9-discover-aspect-ratio_default_0.jpg" width="1200" height="675"/>
      <media:keywords><![CDATA[Tecnología digital,Ley protección datos]]></media:keywords>
    </item>
    <item>
      <title><![CDATA[Asociaciones demandan a Facebook e Instagram por su controvertido modelo de pago por privacidad]]></title>
      <link><![CDATA[https://www.infolibre.es/medios/asociaciones-demandan-facebook-e-instagram-controvertido-modelo-pago-privacidad_1_1684987.html]]></link>
      <description><![CDATA[<p><img src="https://static.infolibre.es/clip/a16aaaab-d25c-4108-8d9c-63db4d055e9b_16-9-aspect-ratio_default_0.jpg" width="1200" height="675" alt="Asociaciones demandan a Facebook e Instagram por su controvertido modelo de pago por privacidad"></p><p>Una asociación austríaca especializada en defensa de la privacidad, Noyb, anunció este jueves que presentó <a href="https://www.infolibre.es/politica/consumidores-denuncian-meta-modelo-pagar-consentir-legislacion-europea_1_1655019.html" target="_blank">una demanda</a> ante la autoridad de protección de datos del país contra el modelo de pago por privacidad instaurado por <strong>Facebook e Instagram</strong>, según informa EFE. Desde principios de noviembre, estas plataformas pertenecientes al<strong> gigante tecnológico Meta</strong> aplican <a href="https://www.infolibre.es/medios/meta-twitter-tiktok-redes-sociales-fin-gratis_1_1608281.html" target="_blank">una controvertida "tarifa de privacidad"</a> que puede superar los 250 euros al año para los usuarios que desean evitar ser rastreados por esas plataformas.</p><p>Si bien dar el consentimiento para el rastreo es tan sencillo como un clic, retirarlo implica un proceso arduo que sólo se resuelve mediante una suscripción de pago, una práctica que -según Noyb- <strong>va en contra de la normativa de protección de datos de la UE</strong>, que requiere que retirar el consentimiento sea tan fácil como darlo.</p><p>La asociación busca que las autoridades ordenen a Meta que proporcione a los usuarios una forma sencilla de retirar su consentimiento sin incurrir en pagos. "La ley es clara: retirar el consentimiento debe ser tan fácil como darlo. Es obvio que pagar <strong>251,88 euros</strong> al año para retirar el consentimiento no es tan fácil como pulsar un botón de <em>ok </em>para aceptar el rastreo", explica Massimiliano Gelmi, abogado de Noyb.</p><p>La empresa <strong>cobra a los usuarios por elegir una configuración de privacidad</strong>, y aquellos que no están dispuestos a pagar deben aceptar ser rastreados para recibir publicidad personalizada basada en su navegación.</p><p>La relación de Meta con la UE y sus diferentes organismos ha estado llena de encontronazos, principalmente por su política de protección de datos, la dificultad de aplicar el <strong>"derecho al olvido digital"</strong> o la posición abusiva de sus redes con respecto a los medios de comunicación, entre otros aspectos. Es probable, según Noyb, que el caso se traslade al organismo de protección de datos de Irlanda, que tiene jurisdicción sobre Meta en la UE.</p>]]></description>
      <guid isPermaLink="false"><![CDATA[108c433f-b72d-43d7-b5da-b2a03007f7ec]]></guid>
      <pubDate><![CDATA[Thu, 11 Jan 2024 10:54:21 +0000]]></pubDate>
      <author><![CDATA[infoLibre]]></author>
      <enclosure url="https://static.infolibre.es/clip/a16aaaab-d25c-4108-8d9c-63db4d055e9b_16-9-aspect-ratio_default_0.jpg" length="2035854" type="image/jpeg"/>
      <media:content url="https://static.infolibre.es/clip/a16aaaab-d25c-4108-8d9c-63db4d055e9b_16-9-aspect-ratio_default_0.jpg" type="image/jpeg" fileSize="2035854" width="1200" height="675"/>
      <media:title><![CDATA[Asociaciones demandan a Facebook e Instagram por su controvertido modelo de pago por privacidad]]></media:title>
      <media:thumbnail url="https://static.infolibre.es/clip/a16aaaab-d25c-4108-8d9c-63db4d055e9b_16-9-aspect-ratio_default_0.jpg" width="1200" height="675"/>
      <media:keywords><![CDATA[Facebook,Instagram,Tecnología digital,Ley protección datos,Meta,Redes sociales]]></media:keywords>
    </item>
    <item>
      <title><![CDATA[Protección de Datos avisa a La Liga por los sistemas de reconocimiento facial en los estadios]]></title>
      <link><![CDATA[https://www.infolibre.es/medios/proteccion-datos-avisa-liga-sistemas-reconocimiento-facial-estadios_1_1684970.html]]></link>
      <description><![CDATA[<p><img src="https://static.infolibre.es/clip/eb00ceee-afd2-4142-b6c9-f5c6328d5d2a_16-9-aspect-ratio_default_0.jpg" width="1200" height="675" alt="Protección de Datos avisa a La Liga por los sistemas de reconocimiento facial en los estadios"></p><p>La Agencia Española de Protección de Datos ha lanzado una "advertencia" a <strong>La Liga de fútbol </strong>ante la licitación de un contrato para desarrollar un sistema de reconocimiento facial para el acceso de los aficionados a los estadios españoles.</p><p>La advertencia, firmada por la directora del organismo que vela por la adecuada protección de los datos personales, <strong>Mar España</strong>, recuerda a La Liga la necesidad de que un sistema de estas características se ajuste a la legalidad y que en caso de no adoptar las medidas necesarias incurriría en una infracción que daría lugar al inicio de actuaciones previas de investigación y actuaciones correctivas,<strong> incluidas sanciones</strong>.</p><p>La implantación de cualquier sistema que implica el tratamiento de <strong>datos biométricos </strong>-como el que proyecta La Liga- requiere con carácter previo una gestión y evaluación del riesgo, y que se apliquen las medidas técnicas y organizativas apropiadas para garantizar y demostrar que el tratamiento de esos datos se ajusta a la ley, ha aseverado la AEPD en una advertencia a la que ha tenido acceso EFE.</p><p>En caso de que se demuestre un "alto riesgo" que justifique la instalación de sistemas de reconocimiento facial, este procedimiento deberá también superar favorablemente una evaluación de impacto para la protección de datos que <strong>supere el triple juicio de "idoneidad, necesidad y proporcionalidad" </strong>que fijan tanto la ley de protección de datos como la doctrina del Tribunal Constitucional.</p><p>La Agencia ha instado a La Liga a <strong>verificar si pueden concurrir alguno de los supuestos previstos</strong> en el Reglamento General de Protección de Datos de modo que no sea de aplicación la prohibición general del tratamiento de los datos personales. </p><p>Ese Reglamento prohíbe expresamente tratar datos que revelen el origen étnico o racial, las opiniones políticas, las convicciones religiosas, el tratamiento de datos genéticos, biométricos, de salud, o relativos a la vida y orientación sexual de una persona. Y establece algunas excepciones para ello, entre ellas que el interesado dé <strong>un consentimiento explícito </strong>o que sea estrictamente necesario por razones de un interés público esencial.</p><p>El organismo que vela por la protección de los datos personales en España comprobó que La Liga ha publicado la licitación de un contrato para instalar esos sistemas de reconocimiento facial en los estadios de fútbol, y decidió lanzar esta "advertencia" para poner de manifiesto las consideraciones que se deben tener en cuenta ante la recopilación de datos biométricos. Este tipo de datos están <strong>catalogados como de "categoría especial"</strong> por lo que requieren una singular cautela a la hora de determinar si es posible llevar a cabo un tratamiento de datos de ese tipo, ha incidido la AEPD, y ha instado a La Liga a asegurarse de que el sistema que pretende instalar supere ese "triple juicio de proporcionalidad".</p><p>Este tipo de tecnologías, como las cámaras que permiten el reconocimiento facial de las personas, pueden ser<strong> "realmente intrusivas"</strong> y requieren de un debate ético y jurídico "sosegado", ya que pueden tener efectos muy adversos en los valores fundamentales y la integridad humana.</p><p>Por todo ello, La AEPD ha subrayado que antes de licitar y de implantar un sistema de esas características se debe valorar<strong> si hay otro sistema </strong>que sea menos intrusivo y que permita obtener los mismos fines. "Cuando existan opciones realmente equivalentes y disponibles para todos los aficionados para acceder a los estadios que resulten menos intrusivas para sus derechos y libertades, y que permitan verificar la identidad de los aficionados, como puede ser la exhibición del título de acceso junto al documento acreditativo de su identidad, resulta difícilmente justificable la necesidad de implementar sistemas más intrusivos como son los de tratamiento biométrico", señala el escrito de la AEPD.</p><p>Y concluye además este organismo señalando que <strong>no se debe proponer un tratamiento de datos como este y luego tratar de que sea lícito,</strong> sino al revés: debe existir una condición previa que justifique esa licitud antes de proceder a implantar el sistema y hacer ese tratamiento de datos. </p>]]></description>
      <guid isPermaLink="false"><![CDATA[9b5585a4-8677-41a5-9b80-f620062a8767]]></guid>
      <pubDate><![CDATA[Thu, 11 Jan 2024 10:37:07 +0000]]></pubDate>
      <author><![CDATA[infoLibre]]></author>
      <enclosure url="https://static.infolibre.es/clip/eb00ceee-afd2-4142-b6c9-f5c6328d5d2a_16-9-aspect-ratio_default_0.jpg" length="1070901" type="image/jpeg"/>
      <media:content url="https://static.infolibre.es/clip/eb00ceee-afd2-4142-b6c9-f5c6328d5d2a_16-9-aspect-ratio_default_0.jpg" type="image/jpeg" fileSize="1070901" width="1200" height="675"/>
      <media:title><![CDATA[Protección de Datos avisa a La Liga por los sistemas de reconocimiento facial en los estadios]]></media:title>
      <media:thumbnail url="https://static.infolibre.es/clip/eb00ceee-afd2-4142-b6c9-f5c6328d5d2a_16-9-aspect-ratio_default_0.jpg" width="1200" height="675"/>
      <media:keywords><![CDATA[Fútbol,Tecnología digital,Inteligencia artificial,Ley protección datos]]></media:keywords>
    </item>
  </channel>
</rss>
