Bruselas quiere retrasar algunas partes de su ley de inteligencia artificial
La Comisión Europea quiere posponer la aplicación de algunas partes de la ley de inteligencia artificial que entró el año pasado en vigor en la Unión Europea, entre ellas los requisitos para los modelos de alto riesgo o las obligaciones de transparencia para modelos como ChatGPT o Gemini.
Así se desprende de la revisión de las leyes digitales que el Ejecutivo comunitario presentará el próximo 19 de noviembre y a cuyo borrador, que aún podría sufrir cambios, ha tenido acceso EFE.
Tras su entrada en vigor en 2024, la normativa se irá aplicando progresivamente y, de hecho, desde el pasado mes de febrero las cámaras de identificación biométrica están prohibidas en la UE, pero Bruselas quiere retrasar ahora algunas obligaciones, con el pretexto de reducir la carga burocrática de las empresas.
Es el mismo argumento que ha utilizado para revisar otro tipo de leyes europeas como las relativas al medioambiente o al sector agrícola.
"A raíz de las primeras lecciones aprendidas por el despliegue (de la normativa), la Comisión ha llevado a cabo una serie de consultas, entre ellas una consulta pública para identificar los retos de implementación de la ley de inteligencia artificial", recuerda el documento.
"Estas consultas pusieron de manifiesto retos de implementación que podrían poner en peligro la efectiva entrada en vigor de las disposiciones fundamentales", continúa el borrador.
En este sentido, el texto recuerda que la Oficina de Inteligencia Artificial de la Comisión Europea todavía no ha presentado los estándares técnicos para determinar si un modelo es de alto riesgo y si, por tanto, debería prohibirse por la posibilidad de causar daño a las personas o poner en peligro los derechos fundamentales.
Bruselas debería haberlos presentado el pasado mes de agosto, pero tras incumplir el plazo no ha comunicado aún una nueva fecha para saber si los modelos de inteligencia artificial que se usen en la sanidad o los que, por ejemplo, ayuden a las entidades financieras a calcular la probabilidad de morosidad al conceder un préstamos, pueden considerarse de alto riesgo.
Ante esta situación, la Comisión quiere "alinear los plazos de implementación para abordar la incertidumbre y los desafíos causados por la demora en la disponibilidad de estándares".
El Ejecutivo comunitario también quiere introducir "un periodo de gracia" de un año en la imposición de posibles multas a los modelos de inteligencia artificial generativa como ChatGPT (de OpenAI) o Gemini (de Google) que incumplan los requisitos de transparencia que les exige la ley, como la obligación de aclarar a los usuarios si un contenido lo ha generado una máquina.
En concreto, quiere retrasar el plazo hasta el 2 de agosto de 2027, en vez del 2 de agosto de 2026 que se contempla actualmente.
"Por lo que respecta al potencial retraso de la implementación de partes específicas de la ley de IA, la Comisión aún lo está reflexionando", dijo a EFE el portavoz de política digital de la Comisión Europea, Thomas Regnier.
Desde la vuelta de Donald Trump a la presidencia de Estados Unidos, Washington está presionando a Bruselas para retirar las nuevas leyes digitales que tratan de regular el poder de las grandes tecnológicas, pero la Comisión "siempre respaldará la ley de inteligencia artificial y sus objetivos", afirmó Regnier.
La pionera ley que regula la IA
El reglamento de la Unión Europea consiste es el acuerdo pionero en la limitación de los peligros de la Inteligencia Artificial (IA).
La norma ofrece un enfoque basado en el riesgo, que categoriza los niveles de riesgo y las restricciones que deben acompañar en función de la escala, lo que implica la prohibición en casos de riesgo "inasumible", como los sistemas de categorización biométrica, la extracción no dirigida de imágenes para crear bases de datos de reconocimiento facial, el reconocimiento de emociones, sistemas de puntuación social o sistemas que manipulan el comportamiento.
Con todo, se prevén una serie de estrictas excepciones que permitirán el uso de sistemas de vigilancia biométrica en espacios públicos, siempre que haya orden judicial previa y para una lista de delitos estrictamente definidos.
De este modo, la supervisión biométrica en tiempo real se limitará en tiempo y ubicación y ello sólo para la búsqueda selectiva de víctimas de secuestro, trata o explotación sexual, para evitar una amenaza terrorista específica y presente y para localizar o identificar a un sospechoso de haber cometido un delito de los recogidos en la norma.
García del Blanco: "Los europeos pueden estar tranquilos, el control de la IA será muy estricto"
Ver más
Los sistemas de Inteligencia Artificial utilizados para influir en el resultado de las elecciones y el comportamiento de los votantes también se clasifican como de alto riesgo, y los ciudadanos tendrán derecho a presentar quejas y recibir explicaciones sobre las decisiones basadas en sistemas de IA de alto riesgo que afecten a sus derechos.
Otra de las claves ha sido cómo introducir reglas específicas para los modelos fundacionales, como las plataformas ChatGPT o DALL-E, que vieron la luz después de que la Comisión Europea presentara su primera propuesta de regulación por lo que este capítulo se ha ido desarrollando en el curso de la negociación.
La legislación pionera también propone sanciones para los incumplidores que irán desde los 35 millones de euros o el 7 por ciento del volumen de negocio global hasta los 7,5 millones, en función del tamaño de la compañía.