Entrevista
Ignasi Belda, director de la AESIA: “La IA va a convertir a toda la sociedad en más justa y más democrática"
Ingeniero, doctor en inteligencia artificial, emprendedor. Ignasi Belda (Alicante, 1979), desde hace algo más de un año director general de la Agencia Española de Supervisión de la IA (AESIA), con sede en A Coruña, es un friqui de la tecnología inteligente. Prueba todos los dispositivos con IA que se ponen a su alcance e incluso conduce el único modelo de automóvil homologado en España para circular de manera autónoma. A sus órdenes ya trabajan 30 personas, y su plantilla se duplicará en unos meses, justo a tiempo para tomar velocidad de crucero.
“El Gobierno —destaca— ha hecho una apuesta creando la primera agencia, que es la AESIA, para supervisar el cumplimiento del reglamento europeo. Fue el primer gobierno de Europa que creó un sandbox [un entorno de pruebas seguro donde se puede experimentar con nuevas tecnologías o programas sin riesgo de dañar el sistema real ni afectar a los usuarios] para facilitar a las pymes la introducción en el mercado de nuevos productos. Hemos sido también el primer país de Europa en tener una carta de derechos digitales”.
Supervisión sí, pero no control. ¿Hasta dónde puede llegar la agencia?
Lo que hacemos es monitorizar de forma permanente. En febrero de 2025 entró en vigor la prohibición de ocho aplicaciones de inteligencia artificial. Lo que estamos haciendo es confirmar que en España nadie las está utilizando. La buena noticia es que no hemos encontrado a nadie.
[Belda se refiere a ocho usos de la IA considerados de “riesgo inaceptable”: manipular o influir de forma subliminal en el comportamiento de las personas; aprovecharse de su vulnerabilidad (edad, discapacidad o situación social); aplicar sistemas de puntuación social al estilo chino; predecir delitos basándose solo en perfiles personales; usar reconocimiento facial en tiempo real en espacios públicos; crear bases de datos biométricas obteniendo imágenes sin consentimiento; detectar emociones en el trabajo o en la escuela, y clasificar a individuos por características sensibles como raza, religión, orientación sexual u opiniones políticas.]
Cada vez son más las administraciones que incorporan sistemas de IA para gestionar ayudas o seleccionar candidatos. ¿La agencia lo supervisa antes de que empiecen a funcionar o lo hace a posteriori?
A priori y a posteriori. Hay muchas otras agencias, como la Agencia de Protección de Datos o la Agencia de Medicamentos, incluso autonómicas, que también están supervisando. Nosotros actuamos como coordinador central y somos el contacto único en Europa. Estamos ahora mismo en un proceso de formación, de alfabetización, de transmitir a todas las administraciones públicas qué se puede y qué no se puede hacer.
¿Cómo es el procedimiento estándar? Si una oficina pública pone en marcha un sistema asistido por IA para seleccionar candidatos a un puesto, ¿lo correcto es que antes lo someta a la opinión de la agencia?
Ya hemos contestado unas 500 consultas. Al final, esto es lo que le importa a la gente. Además, de forma potestativa, ofrecemos a las administraciones públicas que concierten con nosotros para que les podamos ayudar más allá de una pregunta puntual. Si es un caso de alto riesgo —y lo que acabas de mencionar lo sería— se exige una autocertificación de que se cumplen determinados criterios que marca la ley: que no haya sesgos, que haya trazabilidad, que haya transparencia.
¿No haría falta una especie de sello que certifique, por ejemplo, que la agencia da su visto bueno a un proceso que utiliza IA?
Eso es. La autocertificación te habilita para recibir un sello, que es la marca CE, la conformidad europea que existe para muchos productos: ascensores, juguetes, dispositivos radioeléctricos. A partir de ahora, los sistemas de inteligencia artificial de alto riesgo también tendrán este sello, este marcado CE, que se obtiene a través de esa autocertificación. Lo presentas en un órgano notificado, que es la agencia; la agencia lo revisa todo y, si está bien, te otorga el marcado.
La Administración no parece haber tenido una actitud muy transparente en relación con estos mecanismos. Hace poco la Fundación Civio culminó una batalla de siete años para obligar a hacer público el código fuente del algoritmo que decide quién merece el bono social y quién no.
La respuesta es compleja. Lo que exige la ley es la certificación de que la aplicación no tenga sesgos. Es decir, que si el ciudadano quiere pedir explicaciones, se le puedan ofrecer. También transparencia, pero transparencia sobre por qué se ha tomado una decisión. No transparencia algorítmica, que es otro tema. Funcionan como las cajas negras de los aviones. Esto es lo que se requiere en los sistemas de alto riesgo: que haya una caja negra. Porque si hay un problema, hace falta que las autoridades puedan abrir esa caja y ver qué ha pasado.
La IA tiene una peculiaridad: una vez ha aprendido, tú puedes mirar el algoritmo, pero no tenemos ni idea de cuáles son los caminos de razonamiento que ha seguido para averiguar, en este caso, cómo se otorga una subvención. Por lo tanto, hoy en día tiene poco sentido dar el código fuente, porque el ciudadano, cuando lo reciba, no va a entender nada. Es mucho más interesante la vía por la cual va el reglamento: asegurarse de que no hay sesgos, que hay trazabilidad, que hay transparencia en las decisiones.
¿La Administración pública española está preparada para decidir qué debe seguir siendo una decisión humana y qué puede dejarse en manos de la IA?
Esto lo determina el reglamento europeo. Cuando estamos ante un caso de alto riesgo, tiene que haber siempre una última palabra del ser humano. Nos guste o no. Si es de bajo riesgo o riesgo medio, es otra historia. Pero en alto riesgo, que principalmente es cuando un derecho fundamental se puede ver afectado, ahí siempre tiene que haber un humano con la última palabra.
¿Qué les dice a quienes afirman que las normas frenan el progreso de la tecnología?
Regulación e innovación no están reñidas. El Reglamento Europeo de Inteligencia Artificial nos ofrece una IA ética, sostenible y confiable, a diferencia de otras legislaciones, como la estadounidense o la china, donde esto no sucede. Es importante hacer ver a las empresas que no se añade más burocracia. Estamos simplemente monitorizando casos de alto riesgo —que son muy pocos— donde algún derecho fundamental se puede ver afectado. Esto afecta casi siempre a las administraciones públicas y muy poco a las empresas. En realidad, el reglamento tiene muchas vías para fomentar la innovación.
¿No teme que el uso generalizado de la IA a la hora de tomar decisiones, sobre todo en lo público, erosione la confianza de los ciudadanos?
No tiene por qué. Es una tecnología que va a suponer una revolución y yo confío en que habrá más decisiones tomadas desde la racionalidad, porque a una máquina es muy fácil programarla para que no tenga sesgos. En cambio, los humanos estamos cargados de sesgos. En una máquina es muy fácil eliminarlos y lograr que tome decisiones mucho más justas y acertadas. Estoy convencido de que la inteligencia artificial va a incrementar la confianza de la sociedad en las administraciones públicas.
Pero la gente desconfía, porque el mal uso de la IA destaca más.
Un buen ejemplo es el de la conducción autónoma. Los coches autónomos tienen muchos menos accidentes que los conducidos por humanos. ¿Por qué? Porque el algoritmo no se cansa, ve de noche igual que ve de día, es respetuoso con las normas de circulación. Cuando hay un accidente de un coche autónomo lo vemos en titulares muy grandes, pero la realidad estadística es muy diferente.
¿La inteligencia artificial sirve a la democracia o la pone en riesgo?
Esta tecnología va a convertir a toda la sociedad en una sociedad más justa y más democrática. Yo vengo del campo de la medicina y ahí es muy evidente. Ahora mismo hay multitud de experimentos y estudios clínicos que demuestran que los sistemas de IA funcionan mejor con pacientes que el método antiguo, que es un médico sin ningún instrumental automático. El médico tiene que estar, evidentemente, pero con herramientas de las que antes no disponía. Esto se puede extrapolar a cualquier otra parte de la Administración: la agricultura, las subvenciones, las agencias tributarias, la justicia…
Uno de los usos de mayor riesgo democrático para la IA es todo lo que tiene que ver con su utilización en política. ¿La agencia se va a ocupar también de esto?
Sí, es una de las prioridades del ministro Óscar López. Tenemos un mandato específico para trabajar en estos ámbitos. El reglamento europeo ya pone un umbral muy alto. Estamos contentísimos de poder estar ya trabajando en investigación, incluso en nuevas herramientas para aumentar el nivel de calidad.
El reglamento clasifica los contenidos generados de forma automática como de riesgo limitado, que es cuando el ciudadano se puede ver, de alguna forma, engañado por una máquina. Hoy en día es muy fácil discernir cuándo te llama una máquina y cuándo te llama una persona. Pero dentro de poco va a ser completamente indiscernible. Entonces, lo que el reglamento dice es: siempre que haya una interacción ciudadano-máquina, habrá que avisar de que está hablando una máquina. Si no se hace, es ilegal. Ese es uno de los ámbitos que nosotros supervisamos. Otro ejemplo: un periódico que tiene una noticia y la genera con inteligencia artificial. ¿Esto se puede hacer? Sí, se puede hacer, no pasa nada, pero tiene que avisar de que la ha generado con inteligencia artificial.
Yo me refería sobre todo a la utilización de la IA con fines de manipulación de la opinión pública. ¿La agencia puede hacer algo para impedirlo?
Sí, siempre que incluya el elemento de IA. En el ámbito de los usos prohibidos ya hay dos capítulos que pueden incidir aquí. Uno es la manipulación subliminal y otro es la explotación de personas vulnerables. Estas dos vías nos abren la puerta, en coordinación con Europa, para poder atajar ese tipo de problemas, que en el futuro quizás vayan a más.
El año que viene tenemos dos elecciones, en Castilla y León y en Andalucía. ¿Podemos pensar que la agencia va a estar pendiente?
Colaboramos con otras instituciones que supervisan los procesos democráticos en España para prepararnos para esto, efectivamente. De la misma manera que estamos en contacto con autoridades que supervisan el tráfico marítimo o el tráfico ferroviario, también estamos en contacto con las autoridades que supervisan procesos democráticos.
La IA está teniendo graves consecuencias para el sector de los medios. ¿Esto también es una tarea que atañe a la agencia?
A qué se obligan ChatGPT, Gemini y Claude al suscribir el código de buenas prácticas en IA de la UE
Ver más
La agencia también prepara un laboratorio de ideas que estamos creando para adelantarnos a los impactos de la IA en los diferentes sectores económicos y sociales. Estamos trabajando en muchos ámbitos —educación, sanidad, administraciones públicas— e invitando a académicos, sindicatos, empresas y administraciones, porque queremos dar voz a todo el mundo.
¿El director general de la AESIA utiliza chatbots como ChatGPT?
Sí, porque quiero ser productivo. El Gobierno de España ha financiado uno de ellos, que utilizamos muy a menudo en la agencia, que es Alia. Una herramienta muy potente que nos ofrece un aumento de productividad espectacular. Por lo tanto, ¿por qué no utilizarlo?