PLAZA PÚBLICA

Los desafíos de la IA para nuestras democracias

Antonio Estella

Vaya por delante: soy un escéptico en materia de Inteligencia Artificial. Y lo soy fundamentalmente porque, al igual que ha ocurrido con otras revoluciones tecnológicas en el pasado, no tenemos ni idea del impacto que la IA tendrá en el futuro en nuestras sociedades, mercados de trabajo, sistemas políticos o educativos. Los seres humanos somos bastante malos prediciendo el futuro; y somos todavía peores a la hora de predecir un futuro marcado por la irrupción de una revolución tecnológica de la envergadura de la IA. Desconfíe, por favor, de todos aquellos gurús que aseguran grandes mejoras sociales derivadas de la IA, al igual que de aquellos otros que pronostican el final del mundo a manos de robots tipo Terminator. La verdad es otra: simplemente, nadie sabe, ni siquiera aproximadamente, por dónde van a ir los tiros en esta materia en el corto, medio, y no digamos ya en el largo plazo. Nos movemos por tanto en un contexto de profunda incertidumbre.

En la pintura renacentista hay una imagen que representa a la perfección la idea de prudencia: se trata del cuadro de Tiziano Alegoría de la Prudencia, en el que se representa a un hombre con tres cabezas: una que mira a la izquierda, otra que mira a la derecha y otra que mira directamente a los ojos del espectador. Es decir, la prudencia “mira” al presente con los ojos de lo que ha ocurrido en el pasado y también con los ojos puestos en el futuro. La prudencia invita a situar estas tres dimensiones temporales en equilibrio, por tanto. Cicerón nos decía que “la prudencia es el arte de buscar las cosas y de saber qué debe evitarse”, mientras que Juvenal nos advertía: “las personas no tienen verdadero poder protector, salvo la prudencia”.

Invoquemos por tanto a la prudencia como primer principio rector en materia de regulación de IA. Ello debe ser así porque con Inteligencia Artificial, en particular, con IA generativa, se puede hoy en día reproducir la voz y la imagen de las personas con un grado de precisión que prácticamente pasa desapercibida al ojo humano. Con IA generativa ya se han realizado vídeos muy realistas en los que Zelensky anuncia la rendición de Ucrania en la guerra de Rusia contra aquel país, el primer ministro de Israel aparece en una conversación con un colega al que le revela un plan destinado a producir una serie de asesinatos políticos en Teherán, y un general de las Fuerzas Armadas de los Estados Unidos de América quema un ejemplar del Corán. Imagínense ustedes si a través de Inteligencia Artificial generativa se produjera un vídeo en el que Pedro Sánchez pacta un referéndum sobre la independencia de Cataluña con Puigdemont, u otro en el que Núñez Feijóo acordara un plan secreto con Santiago Abascal para dar un golpe de Estado en España.

La primera víctima de nuestra democracia a manos de la Inteligencia Artificial ha sido, por tanto, en términos de debate público. Las fake news y las deep fakes pueblan hoy nuestro universo discursivo generando un ruido que hace que los pilares fundamentales de una conversación política sana se estén resquebrajando. Es absolutamente fundamental actuar contra esta info-pandemia, y hacerlo hoy antes que mañana puede ser lo que nos indicaría la prudencia. En el momento actual, los países más importantes de nuestro entorno, junto con la Unión Europea, están planteándose la adopción de marcos regulatorios que gestionen de manera adecuada esta cuestión. Pero existe muchísimo miedo, puesto que dar un paso en falso en este terreno puede echar al traste el desarrollo de un mercado que es multi-billonario. Hay países, como por ejemplo la India, que han anunciado (aunque posteriormente parece que han rectificado esta posición) que no regularán en absoluto la IA. Sinceramente, creo que ello es un profundo error. No se trata de comparar pandemias con pandemias, pero bajo mi punto de vista, el desafío que genera la IA es muchísimo mayor, y más inminente, que el propio cambio climático.

Un debate público empobrecido tiene una consecuencia directa, de tipo negativo, en uno de los “bienes comunes” con los que se construyen nuestras democracias: me refiero a la confianza institucional. La confianza institucional en nuestras sociedades está bajo mínimos. Hay, por supuesto, diferencias entre países y sistemas políticos, pero en general se lleva advirtiendo ya desde hace algún tiempo que este recurso, la argamasa con la que se pega la democracia, como han señalado algunos autores, se está agotando a marchas forzadas. El empobrecimiento de nuestra conversación política repercutirá negativamente, como decía antes, sobre la confianza en nuestras instituciones políticas. Los marcos regulatorios que se implementen tienen que poner en marcha sistemas que permitan re-generar confianza institucional en nuestros sistemas políticos. Igual que existen GANS (Generative Adversarial Networks, por sus siglas en inglés) for Bad (para hacer el mal) también se pueden idear GANS for Good, es decir, sistemas de Inteligencia Artificial generativa para hacer el bien. Pongámonos manos a la obra de forma inmediata.

Los desafíos son por tanto muchos. Y los sistemas de IA, sobre todo de tipo generativo, avanzan a una velocidad exponencial. Seamos prudentes, y no tengamos miedo incluso a la hora de prohibir, al menos por el momento: por ejemplo, tras muchas décadas insistiéndose en ello, ahora los países más avanzados cuentan con regulaciones que prohíben la realización de determinados experimentos científicos con animales. No creo que por ello la ciencia haya sufrido un coste inasumible, un retraso insoportable en su desarrollo. Antes al contrario: la ciencia es mejor hoy en día con estos marcos regulatorios. Y creo sinceramente que la Humanidad también.

__________________

Antonio Estella  es “Lead Researcher” del proyecto SOLARIS, financiado con el programa Horizon Europe, dedicado a analizar los riesgos de la IA generativa en nuestras democracias, en la Universidad Carlos III de Madrid.

Más sobre este tema
stats