La UE legislará por primera vez sobre inteligencia artificial: la vida cotidiana y las libertades están en juego

Fotomontaje con imágenes generadas por inteligencia artificial.

Jérôme Hourdeaux (Mediapart)

Desde hace casi dos años, la Unión Europea prepara un texto muy ambicioso: el reglamento "por el que se establecen normas armonizadas sobre inteligencia artificial", (AI Act).

Su objetivo es establecer normas generales comunes a todos los Estados miembros para regular las tecnologías que utilizan la inteligencia artificial (IA), como la biometría, la puntuación automatizada, el análisis del comportamiento y los algoritmos predictivos.

La ambición del legislador europeo es lograr una reforma novedosa sobre un tema especialmente sensible, comparable al Reglamento General de Protección de Datos (RGPD) de abril de 2016, un texto de gran calado que tuvo un impacto muy fuerte en la protección de datos en Europa.

A pesar de esas buenas intenciones, una coalición de ONG alerta de las carencias de la AI Act en varios puntos. Ante la perspectiva de que el Parlamento Europeo examine el proyecto en abril, Mediapart hace balance de su contenido y de los problemas que plantea, con Katia Roux, que se ocupa en Amnistía Internacional de la defensa de los derechos humanos ante instituciones y gobiernos.

Mediapart: ¿Qué es exactamente esta AI Act? ¿Qué contiene? ¿Cuál es su ambición?

Katia Roux: Es el resultado de una proposición de reglamento presentada en abril de 2021 por la Comisión Europea, que presentaba un paquete de medidas sobre inteligencia artificial, incluida la adopción de legislación europea. El Consejo de la Unión Europea adoptó su posición en diciembre de 2022 y ahora está previsto que el Parlamento Europeo lo vote, previsiblemente durante la sesión plenaria del 17 de abril.

Este reglamento tiene dos objetivos principales. En primer lugar, la promoción de los sistemas de IA y la armonización de las normativas de los Estados miembros. En segundo lugar, tener en cuenta los peligros asociados a la IA. Se trata, pues, de un enfoque desarrollado sobre la evaluación de los riesgos de los sistemas de IA.

Se presenta en forma de pirámide. En la parte superior, hay sistemas de IA que presentan riesgos inaceptables para los que debe haber una prohibición. Por debajo, sistemas que presentan un alto riesgo. Estos deben estar sujetos a una regulación estricta con salvaguardias. Es el caso, por ejemplo, de la IA utilizada en educación, empleo, sanidad o migración.

Luego están los llamados sistemas de riesgo limitado, que estarán sujetos a obligaciones principalmente de transparencia. Y en la base de la pirámide están los sistemas de riesgo mínimo o nulo, para los que no hay necesidad de regulación.

Se trata, pues, de una legislación muy amplia que afectará a nuestra vida cotidiana y a nuestras libertades fundamentales. También es la primera legislación de este tipo en el mundo, al igual que el RGPD, por lo que tendrá implicaciones más allá de la UE. Tenemos la oportunidad de contar con un texto ambicioso, pero no todo está ganado. 

Amnistía Internacional forma parte de una coalición de asociaciones, Protect Not Surveil, que pide que se modifiquen varios puntos del texto. ¿Qué les preocupa?

Se ha formado inmediatamente una coalición de ONG con varios objetivos. Intentamos obtener un máximo de garantías, hacer que ciertos sistemas suban en la pirámide para que estén en el lugar que les corresponde.

Queremos que se garanticen los derechos humanos de todos, prohibiendo determinados usos. También hay que establecer ciertos mecanismos de regulación, como una evaluación de impacto sobre los derechos humanos. También pedimos transparencia sobre los algoritmos utilizados en los servicios públicos. También hay que reforzar las competencias de los ciudadanos, especialmente de los más afectados por estos sistemas, para que puedan presentar recursos cuando se vean afectados.

¿Qué sistemas de IA le gustaría que ascendieran en la pirámide de riesgo?

Nos hemos centrado en los sistemas de alto riesgo. De momento, el texto prohíbe varios de ellos, entre ellos los sistemas de calificación social.

También se considera inaceptable la identificación biométrica en tiempo real en espacios públicos. Pero no su uso a posteriori... Pedimos que así sea, lo que significaría que ya no podría haber en el espacio público ningún sistema de identificación basado en el reconocimiento facial, la forma de andar, las huellas dactilares, etc.

Su coalición también se moviliza especialmente sobre la cuestión de la utilización de la IA en el marco de la política migratoria de la UE. ¿Qué prevé el texto sobre este punto? 

Por el momento, los sistemas de IA utilizados en el ámbito de la migración están clasificados como de alto riesgo, pero no como de riesgo inaceptable. Sin embargo, en nuestra opinión, este debería ser el caso de varios de ellos, como la identificación biométrica a distancia o el uso de drones.

Nuestra coalición se creó originalmente para pedir la prohibición de los sistemas de categorización y elaboración de perfiles diseñados para determinar si un migrante supone un “riesgo". Estos sistemas son intrínsecamente discriminatorios y atentan contra la dignidad humana.

Del mismo modo, deben prohibirse los sistemas de análisis predictivo para determinar, por ejemplo, un puerto de migración, en primer lugar porque son peligrosos y, en segundo lugar, porque violan el derecho fundamental a solicitar asilo.

Exigimos la misma protección para todos. El proyecto, tal y como está, creará un doble rasero en materia de derechos humanos que no es aceptable. No puede haber un sistema de derechos humanos para los ciudadanos europeos y otro para los inmigrantes.

El texto llegará al Parlamento Europeo mientras Francia se prepara para aprobar una ley que autorizaría un experimento de vigilancia algorítmica durante los Juegos Olímpicos de París 2024. El Gobierno asegura que este dispositivo no se utilizará para identificar a individuos, sino sólo para detectar automáticamente acontecimientos anómalos. ¿Le tranquiliza esta explicación?

Efectivamente, el Gobierno dice que no hay identificación. Pero nosotros cuestionamos esa afirmación. Esos sistemas sí recogen datos personales y de comportamiento. Pueden por tanto permitir identificar a una persona. Cuando esas cámaras aíslan, por ejemplo, una manera de andar o de moverse, identifican a un individuo. Basta entonces con solicitar un control de identidad.

Además, esos sistemas de detección de acontecimientos categorizan a las personas para inferir sus intenciones. Eso es muy problemático, ya que estas tecnologías nunca han sido probadas científicamente. Por otro lado, sabemos que generan violaciones de la privacidad, discriminación, sesgos y errores que han sido probados varias veces por estudios.

Se han presentado ya varias enmiendas en el Parlamento Europeo para prohibir la categorización biométrica. Y esta es una de las reivindicaciones que hacemos. Por tanto, el proyecto de ley sobre los Juegos Olímpicos podría ir en contra del debate actual en el Parlamento Europeo.

Con este texto, Francia se posiciona como el campeón europeo de la vigilancia. Eso nos preocupa, porque rebaja el umbral de aceptabilidad de estos sistemas. Además, pensamos que Francia no se mostrará muy activa con respecto a este reglamento sobre IA. Y esto también puede servir de ejemplo para otros países.

Inteligencia artificial y ‘superapps’, algunas de las tendencias tecnológicas de 2023

Inteligencia artificial y ‘superapps’, algunas de las tendencias tecnológicas de 2023

 

Traducción de Miguel López

 

Más sobre este tema
stats