El uso de la IA para la gestión política: ¿distopía u oportunidad para combatir la corrupción?

Los chatbots de inteligencia artificial siguen sin resolver bien los resúmenes de actualidad.

Alejandra Mateo Fano

El pasado mes de septiembre, Albania daba un paso hacia delante en su lucha contra la corrupción en las licitaciones públicas, un problema endémico en este país del sureste europeo. Su apuesta por depurar a fondo las instituciones no ha pasado, en este caso, por activar mecanismos de transparencia dentro del Gobierno o por sancionar a quienes obtienen un lucro personal a través de la actividad parlamentaria. En su lugar, Tirana ha optado por otorgar a un algoritmo las funciones que habitualmente desempeñaría una figura política, nombrando como primera ministra a una Inteligencia Artificial generativa.

Diella, una robot de cabello oscuro, mirada dulce pero firme y ataviada con el traje tradicional albanés, se ha convertido así en la primera representante pública creada por IA en el marco europeo. Uno de los primeros casos a nivel extracomunitario se dio en Tokio, donde en julio de 2024 concurrió a las elecciones municipales una IA llamada Mayor IA (alcalde IA). Tan solo obtuvo 2.761 votos, un 0,02% del total. Se trataba de una versión sofisticada del robot Michihito Matsuda, también creado con esta tecnología, que concurrió a la carrera electoral en 2018 en el distrito tokiota de Tama.

En un Estado como Albania, que cuenta con una tradición caciquil arraigada y hasta normalizada socialmente, Diella (del albanés dielle, sol) pretende ser el antídoto definitivo contra las irregularidades fiscales en el seno del Gobierno. Así lo prometía recientemente el primer ministro albanés, Edi Rama, que confía en que los procesos de contratación pública sean “100% libres de corrupción” gracias a esta atípica incorporación. Mientras un parlamentario de carne y hueso puede verse tentado por sobornos o chantajes, a la IA se le atribuye una supuesta neutralidad y una infalibilidad total en este sentido, ya que sus “decisiones” vienen marcadas por un algoritmo.

Es precisamente esta presunción de objetividad la que a menudo ha motivado a personalidades políticas a dibujar utopías futuristas donde robots o chatbots lleguen a reemplazar a cargos electos. Los esfuerzos en esta dirección han sido hasta la fecha tímidos y casi siempre anecdóticos. En Ucrania, por ejemplo, se lanzó en 2016 un sistema automatizado de control de licitaciones basado en la IA, mientras que siete años más tarde, en Dinamarca, se creó Synthetic Party, un partido liderado por un chatbot llamado Leader Lars. Esta formación, que parece extraída de un capítulo de Black Mirror, obtuvo un resultado ínfimo en las urnas.

En España, por el momento, la ley 50/1997 del Gobierno, en su artículo 11, impide que bots puedan desempeñar cargos ministeriales, ya que para ello es preciso disponer de derechos de sufragio y tener la mayoría de edad, dos requisitos que solo las personas físicas pueden cumplir. En un marco más amplio, la IA y sus usos está regulada por el Reglamento de Inteligencia Artificial (RIA) de la UE, la primera norma jurídica del mundo sobre inteligencia artificial, que limita el alcance del empleo de estas tecnologías para evitar que puedan afectar “a la seguridad, los derechos o los medios de subsistencia de las personas”. Pero más allá de los límites regulatorios y legales, existe un error de base al obviar que los bots creados a partir de IA generativa no son más que una herramienta diseñada por humanos.

La información de la que se nutren estos bots, obtenida fundamentalmente de datos ofrecidos por empresas privadas, está plagada de sesgos cognitivos y estereotipos, lo que refuta la hipótesis general de la “neutralidad” de los algoritmos: “Las decisiones de la inteligencia artificial son tan buenas como los datos que las alimentan, que a su vez provienen de las personas. Si son datos que contienen sesgos machistas, racistas o clasistas, está claro que las decisiones de esa IA serán injustas”, afirma para infoLibre Eleonora Esposito, investigadora de la Universidad de Navarra y experta nacional destacada en la Dirección General de Redes, Contenidos y Tecnología de Comunicaciones (DG Connect) de la Comisión Europea.

Dicho de otro modo, en una sociedad donde permean el machismo o el racismo estructural, como es el caso, la IA estará también empapada de esos mismos patrones. “El error es considerarla como si fuera algo inherentemente mejor que la humanidad misma. Simplemente es un producto de nuestra sociedad y puede acabar reforzando las mismas prácticas que debería evitar y llevar a decisiones equivocadas sin el contrapeso del juicio humano”, añade la investigadora.

El peligro de reproducir sesgos humanos

Un ejemplo que muestra la prevalencia actual de estos sesgos racistas en la IA, hasta el extremo de haberse producido vulneraciones graves de derechos humanos, es el empleo de algoritmos para la securitización de las fronteras. El uso del reconocimiento biométrico con sistemas de inteligencia artificial que funcionan identificando imágenes ha llegado a vincular erróneamente a muchas persona racializadas con delincuentes organizados. Estas malas praxis, de ser llevadas a la gestión pública comunitaria (pongamos por caso que una IA pudiera implantar políticas migratorias), podrían resultar nefastas para la población migrante y peligrosas para la sociedad en su conjunto.

Así lo esgrime Enrique Benítez, economista especializado en ciberseguridad, algoritmo y regulación digital: “Hay un enorme sesgo en el entrenamiento de estos modelos que hace que identifiquen muy mal a las personas. Si se utiliza para políticas de control de fronteras, un terrorista blanco se convertirá en un falso negativo porque el sistema no lo va a identificar como un posible terrorista a pesar de que, por ejemplo en Estados Unidos, hay una larga tradición de terrorismo de ultraderecha protagonizado por hombres jóvenes de raza blanca. Sin embargo, si la persona es racializada, es muy posible que el sistema responda con un falso positivo”, afirma en conversación con este medio.

En 2021, a través de la publicación de su informe Xenophobic machines, Amnistía Internacional se hizo eco de un caso flagrante de vulneración de derechos ocurrido en Países Bajos a causa de los sesgos de la IA: se incluyó el uso de perfiles raciales en el diseño del sistema algorítmico utilizado para determinar si las solicitudes de subvención para el cuidado infantil eran señaladas como incorrectas y potencialmente fraudulentas. Como desliza el informe, decenas de miles de padres y cuidadores de familias con bajos ingresos, en su mayoría procedentes de minorías étnicas, fueron acusados falsamente de fraude por las autoridades tributarias neerlandesas.

“Se ha demostrado en repetidas ocasiones que los algoritmos perpetúan, amplifican y afianzan la discriminación histórica u otros sesgos, que suelen derivarse de datos imbuidos de sesgos históricos o de las elecciones sesgadas de las personas que diseñan, desarrollan y despliegan los sistemas”, reza el estudio. Otro análisis de esta organización aplicado a este país revela que existe el riesgo de que la autoridad de bienestar social de Dinamarca, Udbetaling Danmark (UDK), “discrimine a las personas con discapacidad, a las de bajos ingresos, a las migrantes, a las refugiadas y a los grupos raciales marginados, mediante el uso de herramientas de inteligencia artificial (AI)”.

La IA al servicio de las autocracias occidentales

Un dato nada baladí respecto al uso de IA para sustituir a figuras políticas es que en la mayor parte de lugares donde se han utilizado algoritmos para la gestión pública, la IA se ha destinado a endurecer la seguridad, pero rara vez para ampliar derechos ciudadanos o aumentar el bienestar social. “El uso de la inteligencia artificial en las llamadas Smart Cities se está produciendo sobre todo en el área de vigilancia. Por eso, las ciudades más desarrolladas del mundo en el uso de inteligencia artificial son precisamente las que cuentan con regímenes autocráticos, donde interesa el reconocimiento biométrico y la identificación de posibles críticos con el régimen o de movimientos sociales, mientras vemos mucho menos ejemplos de uso real de la IA para mejorar la gestión pública”, destaca Benítez.

No es casual, pues, que los gobiernos cada vez más virados hacia el totalitarismo, como los EEUU de Donald Trump o el actual Ejecutivo albanés, sean los que más glorifiquen y abanderen a ultranza este tipo de soluciones a menudo tecnofeudalistas. En muchos casos, bajo esa defensa de la IA en política se esconde un cierto deseo de autoritarismo, ya que sus decisiones lucen infalibles e incuestionables. En Estados Unidos está aumentando la colaboración entre compañías privadas de IA y el Servicio de Inmigración y Control de Aduanas (ICE por sus siglas en inglés), hasta el punto que se está geolocalizando a objetivos a través de sus teléfonos móviles a través de su ubicación.

Para este tipo de gobiernos que fantasean con hacer que bots asuman cargos ministeriales, alega Esposito, la IA actúa a la hora de legitimarse como un gobierno avanzado tecnológicamente, proyectado hasta el futuro. “Hablamos de Estados que no prestan mucha atención a las desigualdades sociales y tampoco piensan en las dudas éticas que esto conlleva”, subraya. En esta línea, el jurista norteamericano Ryan Calo, en su artículo The Automated Administrative State: A Crisis of Legitimacy, se muestra escéptico ante el futuro de la IA en la administración pública y señala directamente a EEUU por su uso torticero de estas tecnologías, ya que apunta que la IA afianza los prejuicios raciales, de clase y de género, así como la negación de las salvaguardias estructurales.

Las empresas de IA consolidan la hegemonía de los grandes medios e ignoran a los más pequeños

Las empresas de IA consolidan la hegemonía de los grandes medios e ignoran a los más pequeños

Por ende, el peligro central en esta cuestión, tal y como convergen las fuentes consultadas, reside en la incapacidad moral de los algoritmos: “Existe el riesgo de que esto se traduzca en políticas sin consideración para las minorías. Se van a tomar decisiones sin tener necesariamente en cuenta el impacto humano, cuando lo que necesitamos son políticas hechas desde la empatía y que sean interseccionales”, advierte Esposito.

Además, los expertos coinciden en que la labor política debe entenderse socialmente como una actividad que desborda la mera gestión: en el hacer de cualquier administración pública entra la necesidad de tomar decisiones adecuadas, fortalecer las normativas existentes, fomentar una educación ética, proteger a los sectores vulnerables de la población, etc. Todo ello requiere de una dosis alta de racionalidad y juicio crítico, de los que una máquina carece por completo. Sí puede resultar beneficioso, a través de algoritmos, acelerar procesos mecánicos como analizar enormes volúmenes de datos, detectar irregularidades en contratos públicos o identificar si en estos existen cláusulas inusuales que podrían ocultar tratos corruptos.

Incluso, más allá de las labores anticorrupción, podría emplearse para tareas muy diversas como anticipar crisis, recopilar opiniones masivas, optimizar el transporte público en función del tráfico, asignar recursos sanitarios de forma efectiva a través de modelos predictivos, etc. Eso sí, siempre deberá haber un cerebro humano detrás de la totalidad de estas operaciones dado lo imperfecto de estos modelos. También porque, desde una perspectiva legal, la IA no tiene facultad para ser responsable de las decisiones que toma ni responder por sus actos, ya que no es ni una persona ni una entidad jurídica. 

Más sobre este tema
stats