NUEVA LEGISLACIÓN EUROPEA

Ni 'Black Mirror' ni 'Minority Report': así quiere la UE regular la inteligencia artificial

Estudiantes observan a un grupo de robots haciendo taichí.

No, no vamos a hablar ni de un capítulo de Black Mirror ni de Tom Cruise en Minority Report. Aunque la inteligencia artificial pueda sonar a ciencia ficción, cada vez tiene una mayor implantación en nuestro día a día. No solo debemos pensar en los algoritmos que todos tenemos en mente, como aquellos que ordenan nuestras redes sociales, también debemos recordar que este tipo de tecnología está presente ya en muchos servicios de atención al cliente, traducciones, robots o juguetes. Ante ello, la UE se ha puesto las pilas y, a pesar de que reconoce que llega tarde, ha comenzado a dar sus primeros pasos para ser pionera en regular un campo al que ningún país ha puesto, aún, ningún tipo de normas o leyes

Tras 18 meses de trabajo, el pasado martes, el Europarlamento aprobó el documento final de la comisión especial sobre Inteligencia Artificial en la Era Digital (AIDA, por sus siglas en inglés) con 495 votos a favor, 34 en contra y 102 abstenciones. "Este informe marca la posición del Parlamento Europeo. Pero sigue habiendo debate. Ahora mismo hay cinco comités trabajando en esta nueva legislación", explica en conversación con infoLibre Ibán García del Blanco, eurodiputado socialista y miembro de esta comisión. No obstante, tal y como señala este parlamentario, contiene ya muchas de las posiciones clave para el futuro de esta nueva regulación. Es decir, se puede considerar ya la hoja de ruta. Toda una declaración de intenciones en la que la Comisión Europea deberá basar su futuro reglamento.

"Todos los cambios que se proponen son muy sustanciales porque todo es muy nuevo", defiende García del Blanco, que reconoce que lo más importante es que "se dará seguridad jurídica". "El hecho de que la UE haya propuesto y esté llevando a cabo una regulación sobre la inteligencia artificial es una buena noticia porque es la garantía máxima de que se va a aplicar correctamente en Europa y que si algo sale mal se puede recurrir y pedir explicaciones", afirma Lucía Ortiz de Zárate, investigadora en Ética y Gobernanza de la Inteligencia Artificial en la Universidad Autónoma de Madrid, que recuerda que esta futura normativa permitirá así "establecer un marco de garantías". 

¿Y qué adelanta este informe o declaración de intenciones? "La inteligencia artificial no es una tecnología con poderes mágicos, sino una herramienta eficaz a la que podemos dar un buen uso", asegura este documento que aboga por aprovechar sus ventajas en retos como el cambio climático o futuras pandemias. También apuesta por "un entorno normativo favorable establecido por una legislación dinámica y una gobernanza moderna", ya que la actual está "está demasiado fragmentada, es demasiado pesada y no ofrece seguridad jurídica". Eso sí, siempre que ni reemplace "la autonomía humana" ni asuma "la pérdida de libertad individual" y tenga un enfoque que defienda los estándares democráticos haciendo un uso "responsable" y con altos patrones de seguridad. 

Una futura legislación pragmática y sin grandes prohibiciones

Con estos consejos en mente, desde Estrasburgo se apuesta por una legislación pragmática y sin grandes prohibiciones, salvo en los casos más extremos. Porque el Parlamento Europeo no ha obviado los fines ilícitos, represivos, de manipulación o discriminatorios que pueden derivar de la inteligencia artificial. En concreto, ponen el foco en la vigilancia masiva o el acceso a información privada. Por ello, todo apunta a que el futuro reglamento establecerá cuatro niveles basados en el riesgo de esta tecnología: inadmisible, alto, limitado y bajo.

Y estas prohibiciones de las que advierten los eurodiputados se enmarcan dentro del riesgo inadmisible. Aquí se encuentran aquellos sistemas que suponen un peligro para la seguridad o para los derechos fundamentales de las personas. Entre ellos se encuentran los sistemas de puntuación social, como el que usa China para vigilar a sus ciudadanos y que podríamos comparar al que se puede ver en el capítulo Caída en picado de Black Mirror. "Es una forma de manipulación social", explica Ortiz de Zárate. También en este escalafón estarían los mecanismos de manipulación de la voluntad, por ejemplo aquellos instalados en juguetes con asistente de voz para incitar al menor a comportamientos peligrosos.

Riesgo alto: del reconocimiento biométrico a las armas autónomas

En el riesgo alto se localizan aquellos usos de la inteligencia artificial que deberían estar "prohibidos en principio", aunque se podrán permitir en circunstancias excepcionales y bajo estrictas condiciones, entre las que se encontraría la supervisión humana. "Tienen usos muy peligrosos que pueden violar los derechos humanos, pero los beneficios son superiores a los riesgos", argumenta Ortiz de Zárate, que señala que este nivel es el que recoge las normas más estrictas.

Para ello, la UE establece sistemas de evaluación y control de riesgos para evitar resultados discriminatorios, impone registros a la actividad para asegurar su trazabilidad y obliga a ofrecer a los usuarios información clave. En este apartado se encuentran, por ejemplo, la identificación biométrica o el reconocimiento facial y aquellos usos en infraestructuras clave como redes de transporte; en sanidad como la cirugía con robots; en el ámbito educativo o profesional como la puntuación de exámenes; en la gestión del mercado laboral como los programas informáticos de clasificación de currículos; o para procedimientos migratorios como la verificación de pasaportes

La identificación biométrica y el reconocimiento facial, sin duda, son dos de los puntos que más debate generan en Bruselas. Tanto es así, que está previsto que, a pesar de que su uso indiscriminado en lugares públicos estará prohibido, se van a incluir excepciones, como pueden ser las búsquedas de terroristas, delincuentes peligrosos o menores desaparecidos. En estos casos, según explican desde la UE, se necesitará una autorización judicial. No obstante, Ortiz de Zárate considera "problemático" establecer excepciones: "No tengo claro cómo lo van a utilizar y no sé si era una puerta para permitir otros usos".

Las organizaciones de defensa de los derechos humanos han estado muy pendientes de cómo evolucionaban estas líneas rojas que marcaba o no Bruselas con respecto a la identificación biométrica por las carencias que detectan para proteger a los colectivos más vulnerables y por su posible deriva en una vigilancia predictiva. Y que la propia Comisión Europea reconocía en una nota a finales de abril: "La precisión de los sistemas de reconocimiento facial puede variar considerablemente en función de factores muy diversos, tales como la calidad de la cámara, la luz, la distancia, la base de datos, el algoritmo y la etnia, edad o sexo del sujeto", explicó la Comisión. Una coalición de 123 organizaciones de la sociedad civil califica en un comunicado de "inaceptable" el uso que puedan hacer las autoridades policiales y de la justicia de sistemas de inteligencia artificial para hacer "predicciones, perfiles o evaluaciones de riesgo con el fin de predecir delitos".

Asimismo, también ponen el foco en los sistemas de vigilancia predictiva "basados ​​en el lugar", ya que socava la presunción de inocencia y refuerza la discriminación racial. ¿La razón? Los estudios, tal y como expone Ortiz de Zárate, demuestran que los algoritmos se alimentan de hombres blancos normativos, en los que el acierto es casi del 100%. Pero la cosa cambia con otros sectores de la población, ya que las muestras son más pequeñas en el caso de mujeres, de mujeres racializadas, de hombres racializados o de personas transexuales o no normativas. "Y estos colectivos, que son los que más riesgos tienen de sufrir delitos de odio, están más desprotegidos", sostiene esta experta que también recuerda que "si se está buscando a un criminal, se quiere detectar a todos y no equivocarse y detener a la persona errónea". 

También ha generado polémica que se incluyan en este nivel alto las armas autónomas, como por ejemplo los drones. Es decir, el informe no prohíbe taxativamente su uso sino que indica que, en última instancia, la decisión debe recaer en el ser humano. "En las menciones de alto riesgo no aparece la palabra arma en ninguna forma. Y habría que incluirla de forma específica en el uso de drones o vehículos autónomos", explica Ortiz de Zárate. Para esta experta, esta ausencia puede deberse a un futuro conflicto de intereses ya que gran parte de los países de la UE forman parte de la OTAN. En cambio, García del Blanco defiende que el problema es que "no se puede tocar todo" y que sí que hay "una llamada sobre la prohibición de robots autónomos letales". "Hay cosas que aún están bajo debate. Por ejemplo, solo en mi comisión ha habido más de mil enmiendas", argumenta el eurodiputado socialista. 

Para Ortiz de Zárate, también es llamativo que en este apartado de alto riesgo no estén incluidos los vehículos autónomos y los usos aplicados a la sanidad como podría ser "un algoritmo que se usa en el ámbito médico para diagnóstico o prescripción de tratamiento". 

Riesgo limitado y riesgo mínimo

En el tercer escalón está el riesgo limitado. Aquí se encuentran aplicaciones ya tan populares como los deep fakes, los vídeos manipulados usando técnicas de inteligencia artificial; o los bots, programas que efectúan automáticamente tareas repetitivas a través de Internet. En este apartado, Bruselas pide que se garantice la máxima transparencia y que el usuario sea consciente de que está interactuando con una máquina.

Y el último nivel es el de riesgo mínimo o bajo. Aquí se encontrarían la gran mayoría de sistemas de inteligencia artificial. En este apartado, la UE incluye, por ejemplo, las herramientas que filtran los mensajes no deseados o spam en el correo electrónico o aquellas usadas en los videojuegos. Todo apunta a que, en este nivel, la nueva normativa confiará en la buena voluntad de la industria y no impondrá condiciones específicas de seguridad. Es más, solo será voluntario adherirse a códigos de conducta voluntarios. 

En estos dos últimos niveles es en los que Ortiz de Zárate pone el acento. "Es lo que me parece más problemático", critica esta experta. ¿La razón? Aunque es consciente de que no se puede "regular hasta el extremo" y que es positivo "dejar cierto margen de maniobra", no se puede legislar "solo" con "un código de conducta". "El problema de todas estas aplicaciones es que sus efectos dañinos son más intangibles", afirma esta investigadora que defiende que serán las que van a generar más problemas porque "son con las que más interactuamos diariamente". "Las aplicaciones de riesgo bajo o medio no van a violar los derechos humanos. Pero son muy  problemáticas por su discriminación en un plano menos visible", argumenta. 

Y pone como ejemplo el sesgo de género que nos encontramos en los chatbots o bots conversacionales que ofrecen ayuda: "El chat de la Seguridad Social se llama Issa y el del Ayuntamiento de Murcia, Rosi. Tienen nombre, aspecto y voz de mujer, al igual que los asistentes de voz de Amazon o Apple, Alexa y Siri". "Hay muchas cosas en este sentido, que no son violaciones de los derechos humanos pero que perpetúan roles de género. Y el hecho de no regularlo, me parece insuficiente", señala Ortiz de Zárate que, aunque entiende que regularlas puede ser difícil, sí que se podría "establecer sanciones". "A la UE le falta una visión con perspectiva de género y más inclusiva", reconoce esta experta. 

Más inversión y sanciones

Además de regular, Bruselas también va a apostar en este nuevo reglamento por aumentar la inversión en inteligencia artificial. El objetivo es pasar de los 12.000 o 14.000 millones de euros actuales a unos 20.000 millones anuales. En el informe aprobado este martes también se incluye la creación de una bolsa europea de valores tecnológicos, es decir, un equivalente europeo al Nasdaq de EEUU.

También está previsto que la nueva normativa de inteligencia artificial establezca una serie de sanciones para las compañías que incumplan esta legislación de hasta el 6% de sus ingresos anuales globales o un máximo de 30 millones de euros, según cuál sea la cifra más alta. Asimismo, también establecerán multas del 4% o de 20 millones en el caso de los incumplimientos de cualquier requisito u obligación del reglamento, o del 2% o de 10 millones por ofrecer información incorrecta, incompleta o engañosa a las autoridades competentes. 

El reglamento puede estar listo en algún momento de 2023

Un 'sheriff digital' para acabar con el 'salvaje Oeste', así es la ley de la UE para frenar a Google, Meta y Apple

Un 'sheriff digital' para acabar con el 'salvaje Oeste', así es la ley de la UE para frenar a Google, Meta y Apple

¿Y cómo afectarán todas estas novedades a los usuarios? "Casi no van a notar los cambios", defiende Ortiz de Zárate ya que, actualmente, la inteligencia artificial "no está prácticamente implementada" y en Europa "se parte de un escenario bueno". "Si la regulación funciona bien, se verá una mejora de su vida en todos los sentidos. La regulación será un fracaso si la gente percibe que sus derechos se vulneran", reconoce esta investigadora. 

Aunque no noten sus cambios, los usuarios deben ir preparándose para este nueva legislación ya que las mejores previsiones auguran que no tardará mucho en llegar a nuestras vidas. Según los cálculos que baraja García del Blanco, y a pesar de que los comités "han pedido más tiempo para trabajar por la propia complejidad del asunto", es que, si Bruselas consigue que el trílogo de negociaciones entre el Parlamento, el Consejo y la Comisión se produzca durante el último trimestre de este año, podría estar lista "en 2023". La UE tendría así su equivalente al Reglamento General de Protección de Datos, pero para la inteligencia artificial. Es decir, volvería a coger la delantera y establecería, de nuevo, unos estándares no sólo a nivel europeo sino a nivel mundial. 

Este futuro reglamento se enmarca dentro de la estrategia de Bruselas para que Europa lidere la transición hacia un nuevo mundo digital y que está dentro de un paquete en el que también se encuentran la Ley de Servicios Digitales y la de Mercados Digitales. Ambas son dos caras de una misma moneda: mientras la primera busca, a grandes rasgos, algo tan básico como que lo que es ilegal en el mundo físico sea ilegal en el mundo digital, la segunda pretende frenar el comportamiento anticompetitivo. Las dos se encuentran en la fase final y están a punto de convertirse ya en una realidad. 

Más sobre este tema
stats