LA PORTADA DE MAÑANA
Ver
Doce asesinatos machistas en quince días destapan fallos en todas las escalas de protección de las mujeres

Inteligencia artificial

En busca de unas reglas y de un control democrático: ¿Estamos preparados para el “gobierno de los algoritmos”?

La IA aplicada al sector público desafía a las democracias.

¿Cuántas decisiones de ámbito público estamos dispuestos a dejar en manos de la inteligencia artificial (IA)? La mayoría de los ciudadanos, seguramente, estará de acuerdo con que los médicos puedan usarla para realizar mejores diagnósticos, pero quizá no todo el mundo esté de acuerdo con que decida quién debe tener prioridad en un trasplante. ¿Estamos dispuestos a permitir que la IA decida quién aprueba la selectividad, quién supera una oposición o quién tiene más derecho a recibir una subvención pública? ¿Debe ser la IA quien determine qué territorios merecen más inversiones en infraestructuras o si es mejor gasta más en educación que en sanidad? ¿Qué haremos cuando sea posible gobernar, tomar decisiones, a partir de lo que la inteligencia artificial considere mejor para un país?

En el futuro más inmediato asistiremos a una integración cada vez más intensa de la IA en el sector público. ¿La veremos decidiendo cómo se aplica la ley, se responde a emergencias o se gestiona el medio ambiente?

El debate en torno a la utilización de la inteligencia artificial en el sector público ya ha comenzado. Y las respuestas ni son fáciles ni parecen estar todavía al alcance de la mano. El Ministerio para la Transformación Digital y la Función Pública, que dirige José Luis Escrivá, cuenta desde hace un mes con una Estrategia de Inteligencia Artificial que, entre otras cosas, plantea abiertamente la utilización de esta tecnología en la administración pública.

En principio, a juzgar por el documento del Gobierno, todo son ventajas. “Una oportunidad para acercar la Administración a la ciudadanía y superar las brechas de acceso a la misma, prestando servicios públicos de calidad y asegurando que la ciudadanía pueda elegir el modo en que se comunica con la Administración”, sostiene en sus páginas. Y un modo de “proporcionar a los empleados públicos las mejores herramientas de acompañamiento, en la prestación de unos servicios públicos de calidad, propios de un Estado de bienestar maduro y una democracia avanzada”.

La idea es utilizar la IA generativa (la que es capaz de crear contenido nuevo, como texto, imágenes, música o datos, utilizando modelos entrenados en grandes cantidades de información existente) para “desarrollar una Administración abierta y moderna, optimizando las capacidades y la inversión en activos tecnológicos para generar servicios públicos inclusivos (…) garantizando la protección de datos y la seguridad de la información”.

El plan del Gobierno es quiere usar esta tecnología para analizar “grandes volúmenes de datos” para “mejorar la toma de decisiones en el desarrollo de políticas públicas”, la “eficiencia de la operación diaria de numerosos procesos administrativos” y detectar de forma “más precisa” los “problemas sociales”, hacer “mejores predicciones sobre el efecto de las políticas públicas” y automatizar procesos.

Las aplicaciones prácticas

Ya existen ejemplos de aplicaciones prácticas. El Ayuntamiento de París utiliza IA para comprobar quién tiene derecho a ayudas sociales. El de la localidad sueca de Lidingö la usa para asesorar cuidados domiciliarios y residencias de ancianos. El Ministerio de Educación de Polonia ha implementado algoritmos para emparejar a los niños con las escuelas. El únicop límite es la imaginación.

El Gobierno español ya ha previsto financiar con 21 millones de euros un laboratorio dedicado a desarrollar “soluciones innovadoras para las entidades del sector público estatal” que la Agencia Española de Supervisión de la Inteligencia Artificial (Aesia) deberá revisar desarrollando “un esquema de buenas prácticas”. El ingeniero Ignasi Belda será el director de esta agencia, que empezará a trabajar este verano y tiene sede en A Coruña.

Es solo el principio de una práctica que promete soluciones pero también plantea serias dudas. ¿Quién decide los algoritmos? ¿Cómo podemos estar seguros de que son justos y de que no contienen sesgos?

Lo que tenemos que decidir colectivamente como sociedad es dónde ponemos los límites. Es decir: qué ámbitos de decisión nos los reservamos para nosotros mismos

Jose Luis Escrivá — Ministro para la Transformación Digital y Función Pública

El titular del Ministerio para la Transformación Digital y la Función Pública, José Luis Escrivá, lo expresaba esta misma semana: “Lo que tenemos que decidir colectivamente como sociedad es dónde ponemos los límites. Es decir: qué ámbitos de decisión nos los reservamos para nosotros mismos“. “Y no es evidente dónde están esos límites”, advirtió, “ni con carácter general, ni aterrizando a cada uno de los sectores o de las aplicaciones posibles”.

Volker Türk, Alto Comisionado de la ONU para los Derechos Humanos, ya advirtió de que se deben evaluar los múltiples campos en los que la inteligencia artificial puede tener efectos transformadores en sentido negativo, como en el combate a la discriminación, la participación política, las libertades civiles o el acceso a servicios públicos. Es necesario, señaló, un “esfuerzo concertado de los gobiernos y las corporaciones para establecer marcos eficaces de gestión de riesgos y barreras operativas”.

La lista de casos prácticos, algunos todavía hipotéticos pero otros muy reales, que plantean dudas sobre el uso de la IA es interminable. Amnistía Internacional ya denunció en 2020 el uso sesgado de modelos algorítmicos en los Países Bajos para evaluar el riesgo de que determinadas personas cometieran un delito o que estos delitos se cometieran en lugares específicos de la ciudad, lo que supuso la vigilancia masiva y discriminatoria a los habitantes de la localidad neerlandesa de Raermond procedentes de Europa Oriental bajo un claro sesgo racista que relacionaba país de origen con delincuencia.

“Las instituciones públicas de todo el mundo están acudiendo progresivamente a la utilización de sistemas de Inteligencia Artificial y a la colaboración público-privada en la revisión de solicitudes de ayudas sociales directas; para detectar posibles fraudes en bajas laborales; en la concesión de plazas en centros educativos públicos; en el apoyo y orientación en la búsqueda de empleo; en los programas de pago de impuestos... así como en la ‘predicción’ de delitos”, denuncia Amnistía.

Uno de los principales riesgos de la IA es precisamente la posibilidad de sesgo algorítmico, que puede dar lugar a decisiones injustas o discriminatorias. Muchos temen que la Inteligencia Artificial pueda ser pirateada o manipulada, lo que puede desencadenar un daño significativo para la seguridad y la privacidad de los ciudadanos en asuntos tan sensibles como la salud o la información financiera.

Buenas prácticas

Se supone que la recién creada Aesia en España analizando tendencias, generando debate social, identificando buenas prácticas y riesgos emergentes y estableciendo buenas prácticas para promover modelos transparentes y abiertos.

Porque la desconfianza hacia la IA en la administración pública se fundamenta en su opacidad, que dificulta la comprensión y supervisión de cómo se toman las decisiones; en el temor a que se perpetúen o amplifiquen sesgos discriminatorios; o en su acceso al enorme volumen de datos que el Estado tiene de todos los ciudadanos. Hay temor también a que la dependencia excesiva de los sistemas de IA pueda reducir la autonomía y la capacidad crítica de los funcionarios públicos. Y está encima de la mesa la percepción de que las decisiones importantes se están tomando mediante sistemas de IA puede erosionar la confianza del público en las instituciones democráticas.

Daniel Innerarity, catedrático de Filosofía Política de la Universidad del País Vasco y titular de la Cátedra de Inteligencia Artificial y Democracia del Instituto Universitario Europeo en Florencia, acaba de presentar el documento Inteligencia artificial y democracia, que la Unesco presentará en los próximos días. Un text que se hace eco de los “diversos problemas y desafíos para la democracia” que plantea la gobernanza algorítmica, en particular “la identificación de las tareas que pueden ser resueltas por un algoritmo sin dañar los valores democráticos y el conjunto de condiciones que aseguraran esa compatibilidad”.

“Quizás la única certeza política que retenemos hoy en día es que la política del futuro será muy diferente de la política en el pasado. No sabemos todavía con exactitud y aún es pronto para determinar si las nuevas tecnologías mejoran o hacen imposible la democracia, pero es un hecho que ya están impactando nuestra vida política y modificando dinámicas democráticas”. “¿Siguen teniendo valor y sentido los principios de autogobierno democrático en una esfera pública digital, automatizada y regida en buena parte por la gobernanza algorítmica? ¿Estamos ante un cambio de era que debemos simplemente aceptar o hay en este momento histórico oportunidades nuevas de democratización?”, se pregunta el documento.

La gobernanza algorítmica puede ser un factor de democratización en algunos ámbitos y no tanto en otros. En todo caso, por muchos datos que se hayan podido procesar, la decisión última en una democracia corresponde al pueblo, titular de la soberanía

“Gobernar es un acto algorítmico y lo será aún más, ya que buena parte de las decisiones de gobierno son adoptadas por sistemas automatizados”. El problema es “hasta qué punto (…) la utilización de sistemas de decisión automatizada es compatible con lo que consideramos un sistema político de toma de decisiones”. Y la respuesta, según el documento de la Unesco, es que “la gobernanza algorítmica puede ser un factor de democratización en algunos ámbitos y no tanto en otros. Sin olvidar que “en todo caso, por muchos datos que se hayan podido procesar, la decisión última en una democracia corresponde al pueblo, titular de la soberanía”.

Innerarity, en conversación con infoLibre, lo explica así: “La gobernanza algorítmica” es muy oportuna para “ciertas partes del proceso político y muy poco adecuada para otras”. La gran cuestión, subraya, es que los gobernantes identifiquen bien “qué partes son algoritmizables y cuáles no lo son tanto”.

Para explicarlo, le gusta poner un ejemplo real tomado de Nueva York. El ayuntamiento de la ciudad elaboró en su día un algoritmo para la distribución del alumnado en el sistema escolar y no fue hasta después de tenerlo que sus responsables se dieron cuenta de que antes debían decidir cuál era el mejor criterio: asignar plazas por proximidad o impulsar la mezcla social. “Las dos cosas son atendibles y son interesantes, pero no se llevan demasiado bien”, señala Innerarity. Conseguir un equilibrio entre esas dos variables “es una decisión política” que hay que tomar antes de decirle al algoritmo que proceda a distribuir a los alumnos.

“Más que temas inocentes y temas prohibidos, distinguiría entre partes del proceso de decisión. Hay un criterio que funciona bastante bien: en aquellas decisiones o problemas para los cuales es muy importante tener muchos datos y las soluciones son binarias, los criterios están claros y no hay incertidumbre, la inteligencia artificial nos va a ahorrar muchísimo tiempo, lo va a hacer mejor que nosotros, seguramente con menos sesgos”. Pero para aquellos problemas que llamamos “problemas salvajes, poco estructurados, donde hay una gran ambigüedad, donde hay un componente de apuesta, para eso la inteligencia artificial es poco inteligente”.

En el primer grupo de problemas, la recomendación de Innerarity es que “no compitamos con las máquinas” porque “lo van a hacer muy bien”. En el segundo, en cambio, en asuntos sobre los que hay pocos datos, poco tiempo o una gran ambigüedad, tales como convocar elecciones o aplazarlas, casarse ahora o dejarlo para más tarde, “las decisiones difíciles”, subraya, “las máquinas nos van a ayudar poco”.

La importancia de hacerlo bien

En cualquier caso, el responsable de la cátedra florentina Inteligencia Artificial y Democracia es optimista. “Yo en este momento transmitiría un mensaje extremadamente positivo” frente a los mensajes “apocalípticos” que suelen acompañar las opiniones sobre la IA. La prueba “más evidente para las personas es la salud. El cruce de datos para hacer diagnósticos” o la capacidad de hacer “terapias más focalizadas en las enfermedades”. Y pone un ejemplo fácil de entender: la IA ya ve cosas en una simple radiografía que se escapan a los médicos más experiemtnados y que les pueden ayudar a hacer mejor su trabajo.

La clave del éxito de que “lo hagamos bien”, apunta, es que mantengamos la conexión entre las máquinas y los humanos, sobre todo teniendo en cuenta los sesgos de las primeras y de los segundos. “Ya los conocemos bastante bien, ya sabemos cuáles son unos y cuáles son otros. Por tanto, estamos en condiciones de que los unos corrijan a los otros”. Y también, por supuesto, que cualquier decisión, por mucho que sea tomada por el algoritmo, “tiene que ser entendida y aprobada por sus destinatarios. Si no, no estaremos en una sociedad democrática”, advierte.

Y ese entendimiento no es una responsabilidad que la gente deba asumir de manera individual, sino que tiene queebe ser asumida por instituciones. Algunas públicas, como la recién creada Aesia, y otras directamente en manos de la sociedad civil. “Lo importante es que haya supervisión”, que en la ecuación haya humanos “que den garantía de confiabilidad”.

Eso sí, advierte Innerarity: “No pensemos que porque haya un humano detrás, aquello va a carecer de sesgos”. Entendamos, en cambio, que “la inteligencia artificial también puede ponerse al servicio de la identificación de nuestros sesgos”.

El Estado moderno, recuerda, se fundó sobre la idea de tomar decisiones de manera “más objetiva, más procedimental, menos carismática. Que no dependiéramos para las decisiones del líder o de la ocurrencia momentánea, sino de un procedimiento tasado”. Y es ahí, en su opinión, donde hay que situar la IA, en un mundo en el que cada vez más “aumenta la complejidad de los asuntos”.

No vale decir que tenemos aquí un sistema que nos permite prescindir de la gente porque le vamos a dar lo que quiere. La gente debe ser incluida en el proceso de toma de decisión

Daniel Innerarity — Titular de la Cátedra de Inteligencia Artificial y Democracia del Instituto Universitario Europeo en Florencia

“Algunos han hablado de que entramos en una especie de cambio de régimen. No en el sentido en el que se dice en la trifulca política, sino en el sentido de que ahora van a gobernar en buena medida los algoritmos. Hay quien ha hablado de una gobernanza algorítmica, de una algocracia”.

“Lo que prometen el Big Data y la gobernanza algorítmica es que ya no va a haber muestras, sino que va a haber totalidades de población. Vamos a tener métodos muchísimo más rápidos, muchísimo más baratos, muchísimo más precisos, más exactos, y vamos a ser más capaces, esta sería la gran promesa, de conocer muy bien las necesidades y los intereses reales de la gente”.

A través de los datos, “la sociedad se nos puede hacer más legible, más comprensible, se puede hacer una mejor regulación, incluso se puede hacer una determinada anticipación de algunos problemas. Lo cual, dicho sea de paso, no está nada mal en un mundo en el cual casi todas las crisis nos están pillando por sorpresa”.

La gobernanza algorítmica nos hace “dos grandes promesas, una de objetividad y otra de subjetividad”, que hay que someter a la democracia. La primera es muy atractiva en tiempos de “polarización, arbitrariedad” y “enfrentamiento”. Los algoritmos son “menos vulnerables a los sesgos, por lo menos a los sesgos humanos y a los prejuicios que tantas veces tenemos los humanos”, así que con ellos “podemos medir mejor”. La segunda, la promesa de subjetividad, es que vamos a poder “conocer muy bien la voluntad de la gente”.

Pero cuando hablamos de democracia, “lo fundamental es el procedimiento y no tanto el resultado”. Y “procedimiento quiere decir la participación, la toma en consideración de los intereses de todos. Por eso no vale decir que tenemos aquí un sistema que nos permite prescindir de la gente porque le vamos a dar lo que quiere. La gente debe ser incluida en el proceso de toma de decisión”.

Innerarity subraya que “poder, intimidad, comunicación, atención, educación, democracia, van a significar cosas distintas” en el futuro, “como ocurrió con las grandes revoluciones de la humanidad. Nadie sabe cuál va a ser el resultado final. Pero “no es un meteorito que viene de fuera”, recuerda. “Aquí hay una tecnología de la cual los humanos nos apropiamos y podemos hacer cosas con ella”.

Por eso es tan importante la recién creada agencia de supervisión y otras instituciones que se vayan a constituir. Por eso es tan importante que las empresas y los gobiernos establezcan instrumentos de mediación”, para que los individuos no queden expuestos a tener que supervisar por su cuenta la IA. ”La única manera de resolverlo es generar instituciones que constituyan una red tupida, amplia, en virtud de la cual nosotros, individuos inexpertos y legos en esta materia, podamos decir: ‘Yo de esto me fío”.

Sánchez anuncia la creación de un modelo de lenguaje de inteligencia artificial en las lenguas del Estado

Sánchez anuncia la creación de un modelo de lenguaje de inteligencia artificial en las lenguas del Estado

El documento de la Unesco sobre IA redactado por Innerarity concluye haciendo varias recomendaciones para la gobernanza democrática de la inteligencia artificial. Desde medidas de educación y concienciación (evitar exageraciones tanto positivas como negativas e informar a los ciudadanos acerca del alcance real de las transformaciones tecnológicas y sus implicaciones) hasta la aprobación de medidas regulatorias evaluando las tecnologías desde una perspectiva democrática, considerando su impacto en la distribución de poder.

Hace falta “garantizar el pluralismo en todo el proceso de inteligencia artificial, desde la diversidad de género en el diseño de los sistemas hasta la mitigación de sesgos en los datos”, así como “democratizar la gobernanza de la IA, abriendo el proceso de toma de decisiones a nuevos actores como regiones, ciudades, actores privados y la ciudadanía en general”. Es preciso “asegurar la participación pública, la supervisión y la evaluación independiente de los sistemas de IA y de protección de datos”.

Y eso por no hablar de la inteligencia artificial general, con capacidad de entender, aprender y aplicar conocimientos de manera similar a un ser humano, que algunos predicen para dentro de muy poco tiempo. “No creo yo que vayamos a tener una inteligencia artificial que nos supere“, dice sin titubear Daniel Innerarity. “No lo veo verosímil por la propia naturaleza del asunto”.

Más sobre este tema
stats