PORTADA MAÑANA
Ver
El fundador de una sociedad panameña del novio de Ayuso gestiona los chequeos médicos de la Comunidad

Plaza Pública

Transición digital: riesgos, incertidumbres y soberanía

Una inteligencia artifical comprueba la temperatura corporal de los pasajeros en una estación de sutobuses en Corea del sur.

Albino Prada

Para entender la diferencia crucial entre riesgo e incertidumbre podría servir este ejemplo: una compañía aseguradora cubrirá el riesgo derivado del eventual incendio de una casa pero no lo hará en una central nuclear, porqué en este caso se enfrenta a una situación de incertidumbre.

En un riesgo podemos evaluar la probabilidad y cuantía del daño, pero las incertidumbres remiten a una escala de daños imprevisible, a una probabilidad letal por minúscula que sea. Una fuente de daños que no se presta al cálculo: ni de su gravedad, ni de su probabilidad.

Si hacemos caso de las compañías aseguradoras, para las que –por ejemplo- el riesgo nuclear no es asegurable, no debiéramos confiar en muchos ingenieros y ejecutivos. Ya que cuando éstos hablan de cálculo del riesgo, aquellas detectan incertidumbre: "Cuando la lógica del seguro privado se lava las manos, cuando los riesgos económicos del seguro parecen demasiado grandes o demasiado impredecibles para los consorcios aseguradores". De manera que, en cuanto a la detección de incertidumbres, debemos considerar a las compañías de seguro como "pesimistas tecnológicos dignos de todo crédito" (U. Beck, 2006). No debiera extrañarnos tal pesimismo asegurador si, según el diario The Economist (el 7 febrero de 2015), el coste de gestionar el accidente de Fukushima del año 2011 podría llegar a alcanzar los cuatrocientos mil millones de dólares.

La Comisión Europea ve no pocos riesgos en la IA…

En esta disyuntiva llama la atención que la Comisión Europea en dos recientes documentos sobre la masiva irrupción de la inteligencia artificial (IA), la robótica y el llamado internet de las cosas se limite a intentar poner orden en los riesgos de estas tecnologías. Tal como se avanza en la nota de prensa divulgada en la presentación de los mismos de la que reproducimos aquí un fragmento.

Nota de prensa de la Comisión Europea de 19 febrero de 2020

Lo mismo sucede en los documentos de referencia. En el titulado Informe sobre las implicaciones de seguridad y responsabilidad de la inteligencia artificial, el Internet de las cosas y la robótica mientras el concepto de riesgo aparece nada menos que sesenta y tres veces el de incertidumbre lo hace una sola vez, para referirse al entramado normativo, no a las tecnologías en cuestión.

En el que lleva por título Sobre Inteligencia Artificial: un enfoque europeo hacia la excelencia y la confianza sucede más de lo mismo. El concepto de riesgo aparece nada menos que casi cien veces mientras que el de incertidumbre nunca se nombra en relación a estas tecnologías.

¿Tan segura está la Comisión Europea de que no se dan las condiciones para hablar de incertidumbre? Extraña seguridad.

Un evento catastrófico derivado de estas tecnologías sería posible –aunque impredecible y de imposible cálculo de probabilidades– en la medida en que en ambos documentos se habla de amenazas que son difíciles de predecir, y para las que será muy difícil identificar su origen. Debido a los ingentes problemas de complejidad o caja negra asociados a dichas tecnologías.

Algo menos seguro parece el Gobierno de España, afortunadamente, cuando en su muy reciente Plan España Digital 2025 usa el concepto de riesgo diez veces (en lo relativo al 5G, su mitigación o su minimización) y tres veces, algo es algo, el de incertidumbre. O cuando en su reciente Estrategia Nacional de Inteligencia Artificial (ENIA) se plantea un desarrollo ético y confiable de estas tecnologías ante las incertidumbres a ellas asociadas (en su eje estratégico 6).

…y el Instituto sobre el Futuro de la Humanidad detecta muchas incertidumbres

Aunque sobre la cuantía de los daños que se podrían derivar de esta transición digital los documentos citados nada dicen, lo cierto es que contamos con análisis que nos sitúan ante escenarios que nada tienen que "envidiar" a un Fukushima o un Chernobyl. Daños, por tanto, imposibles de cubrir por agencias de seguro privadas.

Para lo que se denomina IAS (inteligencia artificial sobrehumana que podría ser el resultado de la combinación del big data y la IA) Nick Bostrom, director del Instituto sobre el Futuro de la Humanidad y del Programa sobre los Impactos de las Futuras Tecnologías en el Reino Unido, enumera en un reciente libro sobradas razones para concluir que no estamos en situaciones de riesgos manejables, sino –como admite en sus conclusiones– de no pequeñas incertidumbres, incertidumbresporque "superinteligencia no es sinónimo de perfección y, con toda seguridad, se producirán fracasos espectaculares".

Cuando este analista se pregunta qué podemos hacer para dirigir una explosión de inteligencia que aumente las posibilidades de alcanzar un resultado beneficioso, lo cierto es que no está en condiciones de asegurar, ni siquiera de estimar, que el resultado no sea una catástrofe. De ahí el título de su capítulo octavo: ¿Es el apocalipsis el resultado inevitable?. Siendo así que para asumir que con la IAS estamos en una senda de incertidumbre y no de riesgo es suficiente que exista alguna posibilidad de que nos veamos en ese lío. No basta con buscar algo más de control o de seguridad (en su capítulo 9), ni devanarse los sesos para ver cómo dominamos o mantenemos a raya la IAS (su capítulo 12). Porque tal control y dominio no pueden asegurarse.

Él mismo reconoce que muchas de las técnicas que puede imaginar en la explosión de la IAS es muy probable que se produzca a una velocidad tal que el tiempo disponible, para prepararse y avanzar en el problema de su control, lo hiciese imposible. No basta en este asunto con "reducir o limitar el riesgo de dinámicas distópicas"(Bostrom, negritas mías). Porque si lo que está en juego es la eventual extinción de la especie humana –como él mismo acepta– solo es de recibo el riesgo cero. Y eso es imposible.

Como bien señala al final de su libro, en este asunto la euforia iluminada (tecnófila) está fuera de lugar. Aunque también lo está el posibilismo de todos aquellos que, como Bostrom, confían en (reducir, mitigar) manejar el asunto.

Incertidumbre y principio de precaución

Cuando la situación a la que nos enfrentamos no es de riesgo sino de incertidumbre, cuando –para entendernos– las compañías aseguradoras se desentienden de la amenaza planteada lo que procede es aplicar el principio de precaución: abstenerse de iniciar algo que no se esté seguro de luego poder apagar. Porque siempre las alegrías, codicias y barros de no precaución nos enterrarán en lodos de incertidumbre.

Un criterio de acción basado en nuestra confesión de ignorancia: elegir entre prudencia o temeridad. Que se concretó en la Cumbre de Río de Janeiro de 1992 al reconocerse la inexistencia de una certeza científica absoluta en múltiples áreas del saber, ya fuese por la incertidumbre relativa a si la ciencia puede identificar de manera clara efectos y causas, o bien porque muchas causas nos sean científicamente desconocidas. Pues aunque la ciencia y la técnica son artífices de conquistas impresionantes, en muchos ámbitos de conocimiento persiste un amplio margen para lo desconocido.

Porque en no pocos asuntos cruciales no se trata de gestionar riesgos asegurables, sino de actuar con precaución ante situaciones de incertidumbre. Ya sean derivadas de la manipulación atómica (pacífica o militar), la manipulación genética, la IAS, el big data, el cambio climático o la desigualdad social. Todas las precauciones serían pocas en la medida en que no contamos con soluciones para eliminar el problema: por ejemplo, ante una pandemia global, por contaminación biológica como la actual.

De incertidumbres biológicas a digitales

Claro que, a la vista de lo que vamos observando estos meses, bien podría suceder que para escapar de una incertidumbre letal para la salud pública, nos abocásemos a una aún mayor incertidumbre de control monopólico social. Salir de Guatemala para entrar en Guatepeor.

Los síntomas son numerosos y con el mismo denominador común. Así en la distribución comercial se habría acelerado aún más el creciente control de las plataformas online y de los proveedores no de proximidad. Distribuidores como Amazon o Alibaba-Tmall que ya venían creciendo a tasas anuales de dos dígitos frente al comercio físico tradicional. También en plataformas de entretenimiento como Netflix (de la que gestiona su big data el propio Amazon), o de alternativas para reuniones virtuales o canales para docencia (en muchos casos controlados por gigantes como Google o Apple por aquí, o por Baidu por allá).

Por no hablar del control de un 80% de las comunicaciones móviles por el sistema Android de Google y de todo el big data derivado de la captura de datos personales que, entre otras muchas cosas, se considera ya clave para implementar políticas de precaución en esta y futuras pandemias. En este punto los muy numerosos tecnófilos que venden la utopía digital se frotan las manos con un shock que les abre de par en par las (pocas) puertas que aún tenían cerradas.

Gigantescos mega monopolios privados con los que los Gobiernos se ven obligados a negociar en condiciones muy subordinadas. Siendo así que las contrapartidas que imponen a sus cesiones de datos pasan siempre por incrementar su grado de penetración en terrenos de privacidad hasta ahora blindados por lo público.

Por todo ello no deja de resultar sorprendente que en un momento en que los Estados, la Unión Europea, los Bancos Centrales, etc, están asumiendo un papel decisivo en la gestión de un problema en buena medida descontrolado por la gestión neoliberal de la globalización (lo que llamo Chimérica como entramado en el que los plutócratas de Vanguard Group mandan tanto en Apple de Cupertino-California, como en Foxconn de Longhua-Shenzhen) por esas grandes corporaciones privadas, sean estas las que vayan a resultar reforzadas frente a los Estados y a un imprescindible nuevo Gobierno internacional.

Cosa que sucede en vez de potenciarse los canales físicos de proximidad, que todo el mundo comprobó eran decisivos para enfrentar la pandemia: desde alimentos o fármacos, hasta personal sanitario, pasando por mascarillas o equipos de protección. Con más resiliencia y producción más local.

Nube, 5G y soberanía digital

Una resiliencia que convierte en prioritario el acelerar al máximo el camino hacia un Espacio Europeo Común de Datos (replicando en esto una biblioteca pública online como Europeana frente a su contraparte monopólica Google Books) en combinación con una estrategia para el 5G y el internet de las cosas en la que Europa tuviese soberanía digital respecto al duopolio chimericanochimericano (telón digital entre Google y Baidu o Android y Huawei). Por razones de resiliencia, control democrático y proximidad.

Como parece haber asumido el presidente Sánchez en su presentación del Plan España Digital 2025, cuando habla de una: "Apuesta para garantizar una soberanía digital europea basada en los valores comunitarios". Y, seis días más tarde en el Congreso de los Diputados defendiendo una: "Autonomía estratégica de la UE". Aunque tal soberanía y autonomía, a la hora de la verdad, parecen no reclamar una alternativa europea para el 5G frente a China o Estados Unidos.

Se trata de un reto insoslayable porque tanto EEUU como China son perfectamente conscientes de que hoy la IA, el big data y el 5G son armas estratégicas big data que pueden poner patas arriba a un adversario. Incluido en lo relativo al despliegue de sus armas convencionales. Por eso llama poderosamente la atención que frente a la opción de control por empresas públicas de las redes de cableado submarino, de lo que se llama, para despistar "la nube", lo sea en exclusiva por grandes corporaciones privadas.

De no hacerlo así, nuestra resiliencia y capacidad de enfrentar ya sea una crisis sanitaria, una totalitaria manipulación política y social, o una ciberguerra harán que resulte como una broma de chiquillos lo que nos sucedió con las mascarillas. Acabaríamos mendigando el chip o la actualización de la app que (pagado a buen precio) nos permita estar a cubierto de las amenazas que los plutócratas globales tengan a bien poner encima de la mesa. Siendo así que compraríamos migajas de menores incertidumbres biológicas a cambio de ceder toneladas de incertidumbres sociales.

Alcanzar el Gobierno pero no el poder: el "¡Sí se puede!" descubre los límites

Alcanzar el Gobierno pero no el poder: el "¡Sí se puede!" descubre los límites

Coda final

En la actual crisis sanitaria mendigar se concreta patéticamente en que mientras a los mega monopolios privados Instagram, Facebook o WhatsApp les regalamos nuestros datos y privacidad sin pestañear (archivos guardados, micro, cámara, teléfono contactos), a una app pública como RadarCOVID la mayor parte de esos mismos usuarios le niegan en nuestros países los datos de ubicación, red y bluetooth que aquellos mega monopolios, por supuesto, ya tienen. Con tal ciudadanía no va a ser nada fácil construir soberanía digital.

Albino Prada es ensayista y miembro de ECOBAS y de Attac, u autor de Caminos de incertidumbre. Tecnologías y sociedad (Catarata, 2020).

Más sobre este tema
stats