La inteligencia artificial sobrehumana y los enigmas del cerebro

Afiche serigrafiado en color para la presentación de 'R.U.R. (Rossum's Universal Robots)' de Karel Čapek.

Albino Prada

Para poner una fecha al uso de la palabra "robot" debemos retroceder cien años: cuando entre 1921—1922 se escribe y estrena la obra de teatro R.U.R. (Robots Universales Rossum) de los hermanos Karel y Joseph Capek. En ella podemos leer lo que sigue:

La humanidad nunca se entenderá con los robots y nunca llegará a ejercer un control sobre ellos; se verá sobrepasada por un diluvio de estas horribles máquinas vivientes, será su esclava, viviremos a su merced

Cien años después y en medio de los actuales debates [1] sobre transhumanismo, edición genética, singularidades o inteligencias artificiales sobrehumanas (IAS) creo que es un saludable ejercicio su relectura y que, al mismo tiempo, puede ser útil resumir aquí algunas cuestiones clave en relación a lo que fuimos sabiendo sobre estos asuntos, lo que seguimos ignorando. A la vista de ello no dudo lo que seguirían aconsejándonos los hermanos Capek: no enciendas nada que no estés seguro de poder apagar.

Redacto estas notas con la intención de explorar las posibilidades de que una IAS (inteligencia artificial sobrehumana) surja como replicación y obra de nuestra IH (inteligencia humana), tal como sucedía en la ficción de R.U.R. en 1922. Que el comportamiento inteligente de las máquinas iguale o supere al comportamiento inteligente humano.

Para que tal cosa sucediese sería condición necesaria, aunque no suficiente, que nuestro conocimiento y respuesta a estas dos preguntas fuese claro: ¿cómo es que el cerebro humano hace posible una mente inteligente? y ¿cómo realiza el cerebro su trabajo? Solo así, sobre la base de conocer el cerebro humano, podríamos emular un otro sobrehumano. Digo podríamos, ni siquiera digo que debiéramos intentarlo.

El persistente misterio sobre la inteligencia humana

En la obra de toda una vida el neurocientífico M.S. Gazzaniga [en referencia al ensayo Relatos desde los dos lados del cerebro] se afanó en buscar respuestas a esas preguntas, casi siempre valiéndose de experimentos con cerebros divididos, con hemisferios separados de pacientes humanos [aunque en El cerebro social confesaba que, incluso "no comprendemos perfectamente de que modo y por medio de qué rutas el cerebro derecho es capaz de acceder al izquierdo"]: para "saber si las dos mitades cerebrales se comportaban de forma distinta ahora que estaban desconectadas la una de la otra" (página 277).

Su principal conclusión es que, en algún sentido, estamos ante dos mentes separadas en la misma cabeza (página 15), porque mientras el hemisferio derecho no tiene capacidad lingüística (página 69) el izquierdo sí la tiene. O al reparar en que con sólo el derecho no se puede iniciar una sonrisa voluntaria (página 245) aunque no tengamos idea del porqué [también distingue capacidades distintas a cada hemisferio V.S. Ramachandran en Lo que el cerebro nos dice]. El lenguaje sería un instinto localizado en el hemisferio izquierdo, pero, sin embargo, la conciencia no estaría compartimentada [Gazzaniga define en El instinto de la conciencia instintos como facultades que no necesitamos aprender a producir].

Otra de sus conclusiones refiere la no existencia de un mando centralizado del cerebro (página 81), siendo así que los dos hemisferios interactúan de forma muy compleja (página 88). Con una lógica no lineal, modular, del tipo de la que se establece en el funcionamiento entre las cinco capas de un reloj (página 341).

A la vista de lo que antecede es obvio que nos encontramos muy lejos de disponer de una respuesta concreta a aquellas dos preguntas iniciales. Y lo cierto es que según Gazzaniga no son pocos los asuntos para los que queda explícito lo mucho que no sabemos sobre el funcionamiento de nuestro cerebro [también es así para S. Pinker en El instinto del lenguaje; o para A. Damasio en Y el cerebro creó al hombre], confesando humildemente que a día de hoy en neurociencia "no se sabe siquiera cuáles son los datos clave" (página 193) para llegar a reunirlos e interpretarlos.

Tampoco se conocen las razones de la especialización funcional del lado izquierdo y derecho (página 74). Y que "sigue siendo un misterio" donde se almacenan los recuerdos (página 86), aunque se intuye que tenemos un sistema de doble memoria (página 69). Que en cada "mitad cerebral interaccionan entre centenares y miles de módulos para producir la mente de ese hemisferio cerebral" (página 265 y 71).

Suponemos que la evolución de la mente, la evolución del cerebro y la evolución del cuerpo se autoafectan, como pone de manifiesto lo que se conoce como liberación de la mano en el bipedismo [en la página 218 de Arqueología de la mente de S. Mithen].

Y en este punto estamos. No me cabe duda de que se producirán avances en estas décadas sobre las oscuridades relatadas, pero —en relación a lo aquí planteado— es temerario suponer que con el actual conocimiento de nuestra IH podamos replicar algún tipo de IAS. Ya que no se trataría de diseñar un simple algoritmo de memoria masiva (sobrehumana), o incluso de disputar con éxito un juego (ajedrez) contra un humano, sino de construir un cerebro—mente con todas las funciones básicas humanas (lenguaje, habilidades motoras, de socialización, de empatía, de introspección, originalidad, emociones, intuición, autoconciencia, creatividad, etc.) llevadas a una nueva escala. Siendo así que enseñar a una máquina a jugar al ajedrez es fácil, pero ya no lo es tanto enseñarle a preparar un buen desayuno o, simplemente, a tener lo que llamamos sentido común [en la página 160 de Los ordenadores emocionales de R.W. Picard].

En consecuencia, como desde otras coordenadas científicas señaló Roger Penrose, quizás el pensamiento humano no podrá ser programado en un ordenador, porque [2] "nuestra comprensión física es inadecuada para la descripción del conocimiento… una actividad que está más allá de la computación". Y, si la inteligencia y la comprensión humana no podrán alcanzarse por sistemas o medios computacionales [en las páginas 8 y 220 de Las sombras de la mente de R. Penrose], entonces hablar de IA es un contrasentido.

Sin olvidar que seguimos estando aún muy lejos de comprender el fundamento biológico de la conciencia, el misterio de cómo la actividad neural origina la experiencia subjetiva según ha argumentado Eric Kandel [en las páginas 440 y 477 de En busca de la memoria de E.R. Kandel]. Con lo que, en palabras del neurobiólogo Semir Zeki, experto en visión y corteza cerebral [3]: "el estudio científico del cerebro está todavía en mantillas". Y lo sigue estando a pesar de los actuales progresos en nanotecnología, neuroimagen, psicología cognitiva, biotecnología o robótica cognitiva.

Comparte esta perspectiva Noam Chomsky, para quien el sistema mente—cerebro estaría fuera del alcance de la comprensión humana, como en su tiempo sostuvieron Descartes, Newton o Hume. O que, al menos, se trata de un objetivo distante del que apenas vislumbramos su horizonte [en las páginas 49—55 de Sobre la naturaleza y el lenguaje de N. Chomsky].

Dado que los esfuerzos investigadores de Gazzaniga sobre la mente humana que aquí hemos resumido parecen concordar con las ideas al respecto de Roger Penrose, Eric Kandel, Semir Zeki o Noam Chomsky, una conclusión me parece pertinente: replicar tecnológicamente una IAS (inteligencia artificial sobrehumana) es un sinsentido a tenor de lo poco que sabemos sobre el sistema mente—cerebro humano. Por añadidura, intentarlo en una tal situación de ignorancia constituye una temeridad con resultados muy probablemente catastróficos.

Limitaciones e incertidumbres de la inteligencia artificial 

John von Neumann, al final de su vida —corría el año 1958—, abordó en su ensayo The Computer and the Brain las expectativas de que una máquina pudiese replicar las operaciones del cerebro humano (IH). Lo que en el año 1955 se bautizaría como inteligencia artificial [4] (IA o IA fuerte).

No es casual que en la edición del año 2006 de este ensayo seminal [página 24 de O computador e o cerebro de J. Neumann] Senén Barro se plantee como un reto para cumplir dicho objetivo el de "encontrar las matemáticas del cerebro". Un reto en las antípodas de los planteamientos que Roger Penrose se hacía (como acabamos de ver) ese mismo año, en el sentido de que la conformación matemática de una IA mecánica se sitúa en un terreno muy otro que el de una IH. Al menos si reparamos en los enigmas que se acumulan sobre esta última sin que, como acabamos de ver, el paso del tiempo los despeje.

Uno de los protagonistas de la reunión que en 1955 bautizaría la IA, Marvin Minsky, en una publicación [página 14 de Robótica] realizada treinta años después, sostendrá —al respecto del tema que nos ocupa— que los misterios sobre la IH eran aún demasiado relevantes y persistentes como para avanzar de forma rápida y segura en una IA. Y, aunque no lo consideraba imposible, sí muy difícil. Porque [5] "si la vida es necesaria para la mente, entonces la inteligencia artificial fuerte es imposible también" y, repárese, que una IA fuerte se situaría al nivel de la humana, no de una IAS.

Más allá de que sea o no posible para Minsky, las incertidumbres sobre nuestra seguridad en relación a máquinas de IA generadas en un tal contexto lo hacían concluir [6] que, "quizá deberíamos prohibir el empleo de la IA a gran escala durante varios miles o millones de años, hasta que comprendamos lo que significa y sus consecuencias".

Hasta que, por ejemplo, estemos en condiciones de asegurar de forma categórica que esa IA respetaría la primera ley de la robótica de Isaac Asimov (1942). Cosa harto improbable, entre otras razones, porque nunca podremos estar seguros de que ellos tengan una percepción perfecta de lo que sea dañino para los seres humanos [páginas 167—168 de Los ordenadores emocionales de R. W. Picard]. Porque una IA no tiene sentido común ni sentido de la relevancia, lo que se denomina problema del marco [6]: no "se conocen todas las consecuencias posibles de todas las acciones posibles".

Estaríamos en una letal situación de incertidumbre y, por estarlo, ante una imperiosa necesidad de trasladar el principio de precaución [tal y como plantearon en 2014 S. Hawking, M. Tegmark y F. Wilczek en Huffington Post] a estos menesteres, al menos mientras persista nuestro actual desconocimiento de las relaciones cerebro—mente. Con lo que llegamos así al mismo corolario con el que acabamos el epígrafe anterior. Incertidumbres y precauciones para una eventual inteligencia artificial de nivel humano.

Los optimistas tecnófilos y la singularidad

En las antípodas de estos planteamientos se mueven tecnófilos confesos como Ray Kurzweill [La singularidad está cerca de R. Kurzweill]; aquellos que solo ven las luces de la GNR (genética, nanotecnología y robótica) pero no sus sombras. No en vano desde 2012 es director de ingeniería de Alphabet—Google. Siendo así que se solucionarán [7] "el alzheimer, aplopejías, parkinson e incapacidades sensoriales y acabaremos por ser capaces de aumentar enormemente nuestra inteligencia" (página 158).

Se alcanzará una INB (inteligencia no biológica, hacia 2045, página 148) (o una IAS, inteligencia artificial sobrehumana) más poderosa que la débil inteligencia humana y que superará los mejores rasgos humanos (páginas 9 y 10): "¿qué no conseguirán mil científicos, cada uno mil veces más inteligente que los científicos humanos de hoy, funcionando cada uno mil veces más deprisa que los humanos actuales? ¿qué no inventarían?" (página 27)

Aunque en su ensayo se recrea en tales logros inimaginables, y aunque en su índice onomástico no figura el concepto de "incertidumbre" —sí "inmortalidad"—, al menos en dos ocasiones asoma una grieta en su rascacielos tecnófilo. Cuando habla de "la introducción de nuevas formas de toxinas y otras interacciones imprevistas con el medioambiente y la vida" o de "potenciales amenazas provenientes de nuevos virus producto de la bioingeniería" (páginas 285 y 230). Son, sin embargo, al parecer pequeños detalles que no se desarrollan en su argumentación.

Se explica así que respecto a las críticas a su relato de lo que la GNR y la INB traerán a la humanidad en este siglo no acusa recibo de ninguna centrada en los abismos de incertidumbre que se puedan abrir y, por tanto, no se ve en la necesidad de dar respuesta a la misma (página 491 y siguientes). Y ello a pesar de que no se le escapa que "el mercado es la principal fuerza motriz que empuja la tecnología" (página 104), siendo así que podría considerarse factible que otras fuerzas (éticas, sociales, etc.) quedasen postergadas en eventuales caminos de incertidumbre al servicio puro y duro del mercado, el dominio o el poder. Nada de eso, que era central en la obra de los hermanos Capek, se desarrolla en el ensayo, a pesar de que a día de hoy el principal financiador [por ejemplo, para robots autónomos, página 97 de Inteligencia artificial, de M.A. Boden] de la investigación en IA sea el Departamento de Defensa de EE.UU.

Bien al contrario, se detallan previsiones espectacularmente exitosas (en línea con las de anteriores ensayos). Y así, al rebufo del ritmo exponencial de las tecnologías GNR/INB en 2020 ya podremos tener el hardware necesario para emular la inteligencia humana (IH) (lo que él llama hacer una réplica funcional del cerebro humano) por apenas mil dólares, mientras el software él prevé que exista ya en 2030; sobre esa base en 2050 por aquellos mismos mil dólares nuestra capacidad "de computación excederá la capacidad de procesamiento de todos los cerebros del planeta Tierra" (página 138), con lo que "un ordenador portátil de esas características podría realizar el equivalente a todo el pensamiento humano de los últimos diez mil años" (página 146). Todo un R.U.R. llevado al infinito.

Sus estimaciones cuantitativas descansan en una supuesta comprensión del mecanismo profundo del cerebro humano y en una curiosa traducción de numerosos aspectos cualitativos en información cuantitativa. Aunque cuando uno revisa el capítulo cuarto de su ensayo (páginas 156—228) en el que presuntamente aclara esta comprensión (lo titula Consiguiendo el software de la inteligencia humana) nos quedamos con las ganas de tal cosa. Como buen tecnófilo, el no cree "que el cerebro funcione de forma diferente a como lo hace un ordenador" (página 335). Aunque no ignora que en algo que resuelve con facilidad el cerebro de un niño, el lenguaje, reconoce que los sistemas de procesamiento no han llegado a tener éxito pleno.

Al margen de estos detalles Ray Kurzweil extrapola que muy pronto con aquellos ordenadores portátiles (INB) "nuestra civilización impregnará el universo con su creatividad e inteligencia" (página 23), lo que él llama la sexta era de nuestra civilización, en la que ya llegaremos más allá del sistema solar (página 403).

Llegaremos e impregnaremos,… aunque a quién esto escribe le entra la duda de, si las cosas funcionasen así, cómo es que no tenemos aún noticia de ninguna civilización exterior que haya disfrutado en paralelo de una tal explosión o singularidad tecnológica.

Esta ausencia de noticias debiera considerarse altamente inquietante y preocupante, tanto para la verosimilitud de la hipótesis de la singularidad, como a —de cumplirse aquella— sus benefactoras consecuencias.

 

[1] En el ensayo de M.A. Boden (2016): Inteligencia artificial, entre las páginas 103—118 se ocupa de "los robots y la vida artificial". Define como singularidad el momento en que una IA sobrehumana supere una IA fuerte. Para Kurzweil, tal cosa sucederá en el año 2045. Para ella, la propia IA fuerte es imposible (página 142—145 y 151).

[2] En la página 85 de R. Penrose (2006): Lo grande, lo pequeño y la mente humana. Se mantendría en vigor, quince años más tarde, aquello de que "algunos aspectos de la mente trascienden la mera computación", de El ordenador y la mente de P.N. Johnson—Laird (1992).

[3] En la página 411 de S. Zeki (1995): Una visión del cerebro. Para R.W. Picard (1998) en Los ordenadores emocionales, los sentimientos humanos bien podrían solo crecer en un entorno biológico muy complejo (página 170).

[4] Una IA general (no especializada) con dominio, por ejemplo, del lenguaje, la creatividad o las emociones; aunque sin necesariamente identidad, moral, albedrío o conciencia, ver página 119, 29 y 56 de M.A. Boden (2016): Inteligencia artificial.

[5] Página 142 de M.A. Boden (2016): Inteligencia artificial. También para A. Damasio en Y el cerebro creó al hombre (páginas 44 y 366): el cuerpo es el fundamento de la mente consciente, pues en una primera fase ésta se centra en la gestión inconsciente del propio cuerpo (página 62). Aunque lo que para Boden no se vislumbra (páginas 61 y 84) para Kurzweil, como veremos, se haría realidad en 2030.

[6] Página 256 de M. Minsky (1986): Robótica; lo que no impide que transhumanistas como Hans Moravec, Ray Kurzweil, Nick Bostrom, Steve Wozniak o Larri Page lo sean con suma arrogancia y temeridad, aunque, de momento, imaginando un cerebro humano emancipado de nuestra biología (esclavo de la tecnología), ver página 16 de M. O’Connell, (2019): Cómo ser una máquina; así son de optimistas (página 35): "tu cabeza —separada del cuerpo, paralizada y encerrada en acero— sería criopreservada, con vistas a una posterior transferencia de tu cerebro, o de tu mente, a alguna clase de cuerpo artificial".

Edición biológica, entre la precaución y la temeridad

[7] En el terreno tecnófilo se mueve el Libro blanco sobre inteligencia artificial de la UE cuando concluye que la inteligencia artificial ayudará "a encontrar soluciones a algunos de los problemas sociales más acuciantes, como la lucha contra el cambio climático y la degradación medioambiental, los retos relacionados con la sostenibilidad y los cambios demográficos, la protección de nuestras democracias y, cuando sea necesario y proporcionado, la lucha contra la delincuencia", al tiempo que solo utiliza el concepto de incertidumbre una vez.

__________________

Albino Prada es ensayista e investigador.

Más sobre este tema
stats