La palantir de Aragorn o cómo subvertir la IA del amo

Tendemos a hacernos la pregunta equivocada cuando una nueva tecnología reorganiza el poder. Sucedió cuando Gutenberg democratizó con la imprenta la palabra escrita que la Iglesia de entonces, no tan diferente a la de ahora, respondió con el Index Librorum Prohibitorum, una lista de libros prohibidos vigente hasta 1966 y que con el tiempo, solo podemos leer como un indicador del miedo que mueve a ciertos actores con poder cuando lo que está en juego es el monopolio sobre el conocimiento. La imprenta en sí misma nunca fue el problema, sino más bien la posibilidad de que cualquiera con dinero pudiera divulgar y leer ideas que resultaran incómodas. Hoy nos parecería absurda la propuesta de prohibir la lectura o la escritura pero, sin embargo, y con la misma contundencia, nadie parece sorprenderse cuando el resorte inquisitorio medieval nos propone de nuevo la prohibición frente a las infinitas posibilidades de las tecnologías. ¿Puede ser la IA algo que ayude a que la humanidad viva mejor? Humanamente, ¿es inteligente querer que la inteligencia no humana se extienda?

La cuestión está siendo respondida en dos direcciones no necesariamente opuestas aunque una venga de la derecha y otra de la izquierda. Por un lado, nos encontramos con aquellos que proponen explotar el uso la inteligencia artificial desde arriba, que no son otros que los mismos Estados que contratan a Palantir para construir plataformas de deportación masiva; y por otro, la de aquellos que prefieren mantenerse al margen del desarrollo de la inteligencia no humana bajo la lógica de que cualquier participación podría legitimar la lógica bélica o cualquier otro uso pernicioso que se está haciendo ya de la IA. Sobre el miedo creciente a esta tecnología y los motivos legítimos para ello, Marta Peirano en El País o Álvaro Soler y José Manuel Bobadilla en El Salto escribían recientemente centrándose en el catastrófico idilio entre el neofascismo y el capitalismo turbulento, cuya máxima expresión probablemente sea en el uso de Palantir para las guerras de nuestro tiempo. Pero, ¿podemos escapar a la idea de que IA es la herramienta tecnológica que realiza el macabro y ciberpunk planteamiento de que el siguiente lugar de colonización no es un país sino el propio género humano? Aunque el diagnóstico es correcto (el idilio está ya muy avanzado y da mucho miedo), la conclusión que se desprende—que la inteligencia artificial es el problema— no lo es, por más que resulte tentadora.

Heidegger advertía que el peligro de la técnica moderna no reside en ningún artefacto concreto, sino en la estructura que nos hace percibir el mundo entero como recurso disponible para ser optimizado, calculado, gestionado

Hay un ejemplo histórico más que pertinente que no resulta cómodo pero sí preciso para analizar lo que ya hasta el propio Tolkien, creador de las palantir (unas piedras con las que el malo de El señor de los anillos controla todo) predijo. El problema, como sucedía con las piedras de la Tierra Media, no es la tecnología, sino en manos de quién está. IG Farben, el conglomerado químico que financió al partido nazi y fabricó el Zyklon B, estaba integrado por empresas que hoy producen medicamentos oncológicos y fertilizantes que alimentan a centenares de millones de personas. Esas empresas no atravesaron ninguna transformación química entre el Tercer Reich y la posguerra, pero sin duda lo que sí se transformó fue el entramado de regulaciones, presiones sindicales y marcos democráticos imperfectos pero existentes, que determinaron para qué se usaba esa capacidad industrial y a quién se le exigían cuentas cuando salía mal. La tecnología no se volvió ética por sí sola sino que las condiciones de su uso se volvieron, parcialmente, más disputables y por tanto, más democráticas. Dicho de otro modo, no se trata tanto de discutir qué tecnología, sino qué democracia. 

La inteligencia artificial (o la inteligencia no humana, como la denominan ya autoras como Jeanette Winterson) se encuentra hoy en un momento anterior a ese punto de inflexión, y hay alguien que lo ha formulado con una claridad incómoda precisamente porque es correcta aunque se haga desde el lado incorrecto de la historia. Alex Karp, consejero delegado de Palantir, escribe en el punto cinco de su Manifiesto que la cuestión no es si se construirán armas de inteligencia artificial, sino quién las construirá y con qué propósito. ¿Por qué no es éste el argumento que está articulando la izquierda y sí la industria de defensa? ¿Hemos abandonado toda posibilidad de disputar el uso de las herramientas tecnológicas para el bien común? Que lo esté usando Palantir para justificar, por ejemplo, Maven Smart System, el sistema letal casi automático capaz de emplearse tanto para bombardear Irán como para secuestrar presidentes, dice menos sobre la validez del razonamiento que sobre la velocidad con la que se ha abandonado el terreno a quienes tienen los contratos. Y contratos con Palantir parece que tenemos todas. También España, queridas. 

Heidegger advertía que el peligro de la técnica moderna no reside en ningún artefacto concreto, sino en la estructura que nos hace percibir el mundo entero como recurso disponible para ser optimizado, calculado, gestionado. Palantir resulta inquietante precisamente porque encarna esa lógica con una coherencia casi perfecta. Toda persona, toda frontera, toda decisión, todo cuerpo reducido a dato procesable al servicio de quien dispone del capital para costear la infraestructura. Disputar esa lógica exige algo más que regular los medios mientras los fines permanecen intocables, exige, como tan bien relata Ekaitz Cancela en Utopías Digitales, imaginar y construir la capacidad de decidir colectivamente para qué sirve la IA que ya tenemos y las que estamos por crear, con qué salvaguardas y bajo qué formas de rendición de cuentas. ¿O es que no somos capaces de imaginar que la tecnología que es tan poderosa para la muerte pueda servir con la misma potencia para la vida?

Lo que el Estado tiene en su mano, o mejor dicho, lo que nos jugamos toda la humanidad al respecto del futuro de la IA resulta bastante más concreto que regular abstracciones, probablemente más efectivo que la supuesta prohibición del uso de la tecnología y, desde luego, igual de trascendente que las terribles consecuencias de su uso para la Guerra. Una infraestructura pública de inteligencia artificial, financiada con fondos públicos, auditada por instituciones independientes, con canales para la participación ciudadana, incluso con posibilidad de que su propiedad fuera ciudadana, haría por el acceso democrático al conocimiento algo análogo a lo que hicieron en su momento las bibliotecas públicas o la televisión estatal cuando todavía se entendía que distribuir cultura era una función política, no un nicho de mercado. Bajo esta mirada, la de hackear la tecnología para un uso democrático, las tareas relevantes dejarían de ser retirar los dispositivos porque los niños se distraen o prohibir los algoritmos porque nos manipulan —que lo hacen—, sino si la ciudadanía del futuro va a entender la capa técnica sobre la que descansa su vida pública o va a relacionarse con ella como los usuarios medievales se relacionaban con el latín, sabiendo que existe algo poderoso ahí, sin acceso a lo que dice. Enseñar a programar no sería una concesión al mercado tecnológico, sino que sería la diferencia entre producir consumidores de sistemas opacos o educar personas capaces de entender quién los diseñó, para qué y a quién beneficia que no lo sepan. Prohibir la tecnología o condenar como malignos todos sus usos son posiciones útiles a quienes se benefician de que una buena parte de la ciudadanía no tenga ni idea de lo que se hace con sus datos. Un futuro imaginable para la humanidad no pasa por la desaparición de la tecnología, sino por la democratización de la misma. 

Por ello, democratizar la inteligencia artificial implica lo que siempre ha implicado democratizar una tecnología con consecuencias estructurales: acceso público a infraestructuras, modelos auditables, instituciones cuya investigación no dependa de contratos de defensa para financiarse, y ciudadanía con las herramientas conceptuales y las condiciones materiales para entender y decidir qué se hace en su nombre con sus datos. Y sobre todo, lo más relevante, podría implicar que los sistemas que hoy sirven para identificar personas migrantes en situación irregular puedan servir, bajo otras condiciones políticas, para detectar discriminación algorítmica en el acceso a la vivienda o para modelar políticas climáticas con la misma sofisticación con la que ahora se modelan objetivos militares. ¿Te imaginas una IA que sirva para luchar contra la escasez de agua, el cáncer o el problema en el acceso a la vivienda? ¿Sería posible una IA contra la corrupción?

La pregunta es, en definitiva, la misma que la humanidad ha tenido que responder con cada tecnología que ha reorganizado el poder, desde la imprenta hasta la fisión nuclear. Quién decide cómo se usa, quién puede acceder a ella y quién asume las consecuencias cuando falla. Hasta ahora, la respuesta ha sido consistentemente la misma, por lo que cambiar la respuesta exige disputar, con la misma seriedad y los mismos recursos, las condiciones bajo las que opera, no retirarse del debate y llamar a eso posición ética. Para luchar contra Palantir hay que hacer lo que Aragorn hizo con la palantir, lejos de destruirla o ignorarla, usarla para que el amo vea lo que nosotros queremos que vea. 

_______________

Ángela Rodríguez 'Pam' es ex secretaria de Estado de Igualdad.

Más sobre este tema
stats