x

Nos gustaría enviarte notificaciones de las últimas noticias y novedades

PERMITIR
NO, GRACIAS
X

La buena información es más valiosa que nunca | Suscríbete a infoLibre por sólo 1 los primeros 15 días

Buscador de la Hemeroteca
Regístrate
INICIAR SESIÓN
¿Olvidaste tu contraseña?
infolibre Periodismo libre e independiente
Secciones
Plaza Pública

Robots y decadencia

Publicada el 31/08/2020 a las 06:00

Quizás algunos de quienes me leen desde hace tiempo recuerden algún artículo en el que me confesaba devoto de la ciencia ficción. Desde que leí en mi adolescencia las obras de Asimov me entusiasma la inteligencia artificial, las posibilidades de otras formas de vida y cómo se pueden alcanzar desde la tecnología. Después, me atrajeron las películas y series distópicas, especialmente los avances fantásticos que la mente humana ha podido crear y sin duda podrá llevar a cabo, como los algoritmos, capaces de escribir poesía en chino u obras de arte que se exhiben en destacadas galerías… La inteligencia artificial, pensada para solucionarnos la vida, aborda hoy territorios que hasta no hace mucho se consideraban exclusivos del genio humano. Un ejemplo de este avance implacable es la china Xiaoice, un chatbot bajo la firma Microsoft que ejerce de compañera emocional. Tiene 660 millones de usuarios, facilita aplicaciones para todo tipo de usos, como aspectos económicos, de consumo e incluso presenta programas televisivos y es, a juicio de sus creadores, capaz de entender el contexto, el tono y las emociones de un relato "creando en segundos patrones únicos". Xiaoice, como las más populares actrices, tiene millares de seguidores. Por supuesto, la empresa que la produce está obteniendo un beneficio proporcional y más.

Esa capacidad de simular artificialmente sentimientos y, lo que es más inquietante, de provocarlos en la vida real, es la marca de los tiempos nuevos. Tuvimos indicios durante el confinamiento decretado por la pandemia, cuando se habilitaron visitas virtuales de museos y espectáculos, así como enseñanza, lectura y juegos telemáticos. Cortana o Siri no sólo son capaces de realizar búsquedas en Internet mediante voz y darnos los resultados en unos segundos (aunque algunos, según el tono y la hora del día, puedan resultar disparatados), sino además poner en marcha los electrodomésticos, apagar las luces o encender la calefacción; aportan comodidad y también, de alguna manera, nos suplantan. Pero, cuando se trata de aquello que consideramos parte crucial de lo que somos, como la capacidad de crear, esa barrera es más difusa y, a la vez, alarmante.

Ángel Gómez de Ágreda afirma en su libro Mundo Orwell que tal sustitución nunca será real porque hay dos temas propiamente humanos e intransferibles, la capacidad de amar y la de perdonar y pedir perdón; y, para algunos, la de odiar. Coincido en que no es sencillo implantar en una máquina la ternura, la pasión y el desvelo por otro ser, que nos es tan propio. Otra cosa es nuestra facilidad para el autoengaño cuando la soledad o la tristeza pueden hacer que los cuidados programados de un ente artificial o el simulado matiz de preocupación o interés de su voz, lleven a aliviarnos. En cuanto al perdón..., bien, a nadie es ajena la habilidad de algunas personas para resolver las cosas con un "lo siento mucho, me he equivocado y no volverá a ocurrir", como si con ello tuviéramos que absolverlo de todo pecado y asunto arreglado. El verdadero perdón se gana con la reparación del daño y las garantías de no repetición. Errar es humano y perdonar, también. Y, en cuanto a la capacidad humana de odiar, creo que no habría nada tan perverso como insertarla en las máquinas, una maldad insuperable para nosotros mismos.

El mañana fue ayer

Tomo el título del episodio 19 de Star Trek, la serie que siempre me ha emocionado desde su estreno allá por los años sesenta, siguiendo los saltos en el tiempo de la nave interestelar Enterprise. Es probable que, sin ser conscientes de ello, el futuro que nos aguarda lo estemos viviendo ya, y que el mañana nos vuelva a traer al presente actual. Todo puede suceder en nuestra mente y en la realidad. ¿Quién iba a pensar que hoy viviríamos en una “nueva normalidad” debido a una pandemia que nadie previó y cuyas consecuencias definitivas todavía son inabarcables, que destruiría la vida cansina a la que estábamos acostumbrados y nos pondría en la transición hacia nuestro nuevo ser? Si hace un año nos hubieran mostrado imágenes con filas de personas cubiertas con mascarillas en ciudades como Bombay, en Cuernavaca, en Londres, en Berlín o en Sevilla distanciadas unos metros entre sí para comprar el pan; sin besarse o tocarse siquiera; miradas huidizas; fuerzas del orden multando a quien no respetara tales normas y sanitarios equipados con vestimenta ideada para evitar riesgos biológicos, oculto el rostro tras el doble filtro e introduciendo hisopos por las fosas nasales de los ciudadanos, no lo hubiéramos creído. Seguramente, tomaríamos a quien nos lo planteara como un narrador de historias y argumentos para películas de ciencia ficción sin asimilar que éramos nosotros mismos en la cuna del vaivén del tiempo.

¿Cómo vamos a afrontar las exigencias de una realidad abruptamente diferente? ¿Viviremos en una especie de duplicidad cognitiva o asumiremos que nuestra vida cambió de forma definitiva y la afrontaremos con una perspectiva nueva? Tal vez mis colegas serán magistrados virtuales que aplicarán estrictamente el derecho sin dejar resquicio a la interpretación de la ley, o barajando un promedio de razonamientos sobre casos que hayan creado jurisprudencia. Quizás asumamos la figura del Juez Dredd en el mundo violento del 2139 en el que la violencia sea eliminada con absoluta violencia, o quizás la criminalidad se resuelva de forma preventiva antes de que la mente haya siquiera imaginado el crimen, como acontece en el año 2054 en Minority Report, eliminando de un plumazo el 'problema' de la independencia judicial y de la intrusión de la política. Y por qué no, en el lado positivo, los docentes artificiales puedan ajustarse al programa del Ministerio zanjando las “arbitrariedades” en los exámenes, en aplicación clara de las enseñanzas obligadas y con mayor neutralidad en las calificaciones. ¿Y los médicos? Por fin se podrán liquidar las listas de espera por la eficacia indudable de los diagnósticos iniciales y la aplicación de una medicina certera y una no menos precisa cirugía. ¿Qué pasará con las administraciones? Todo robotizado y, para los ámbitos humanos de decisión, ¿por qué no un programa o algoritmo para detectar a los corruptos y acabar con la corrupción?

Desde luego, a esta digresión aterradora le falta consistencia. A pesar del posible triunfo de las máquinas, a los maestros les faltaría la capacidad de entusiasmar al alumno; a los médicos, el talento para consolar y dar esperanza y a los jueces… Bien, creo que será muy difícil que una inteligencia no humana sea capaz de administrar la dosis de imprescindible piedad que debe acompañar a las decisiones judiciales que cambian la vida de los individuos. Y las administraciones, podrían carecer de la voluntad de buscar soluciones y prestar un buen servicio para atender a una realidad que no cabe en los procedimientos predefinidos.

La responsabilidad moral

La cuestión es si las máquinas podrían llegar a expresar sentimientos y sustituirnos en lo más trascendental. La psicóloga, filósofa y profesora de informática y ciencia cognitiva de Reino Unido Margaret Boden, referente mundial en esta materia, considera que el maridaje entre inteligencia artificial y humanos es inquietante en cuanto ya no existe posibilidad de divorcio: "Tenemos un futuro muy emocionante por delante, pero lo que sucederá es totalmente impredecible y eso debería preocuparnos". En cuanto a su utilización, considera que no existen los robots éticos, porque no tienen la culpa de lo que hacen. "La responsabilidad moral tiene que quedarse del lado del ser humano", dice. Para ella el miedo se basa en que los robots puedan tener permiso para matar a personas en una guerra posible en la que sean utilizados.

Aquí entran sin duda la política y las ideologías. Consideren por un momento que la programación de nuestros amigos robots proceda de las perspectivas de una mente del tipo de la del impresentable mandatario norteamericano Donald Trump o del ultraderechista presidente brasileño Jair Bolsonaro. ¿Qué podríamos esperar de tales planteamientos? La ética que refiere Boden saltaría hecha añicos y las acciones definidas para esta inteligencia artificial resultarían probablemente tenebrosas. No olvidemos que a los drones que ejecutan acciones bélicas centradas en objetivos, no siempre militares, los dirigen humanos y su precisión se concreta a miles de kilómetros en una oficina de Washington o Moscú.

La catedrática de Psicología Helena Matute ponía en evidencia en otro artículo, Inteligencia artificial para controlarnos a todos, otro aspecto no menos crucial, el del aprendizaje sesgado de las máquinas. "¿Cómo aprenderá una IA a vivir en un mundo como el nuestro? ¿Qué comportamientos aprenderá? ¿Qué tipo de sesgos y prejuicios desarrollará? Evidentemente, el tipo de comportamiento que esa IA va a ir aprendiendo no es en principio ni bueno ni malo; va a depender de aquellas conductas que su entorno le premie". Ponía como ejemplo lo que ocurre en redes sociales, cuando una IA nos envía tuits hasta que reaccionamos y los retuiteamos. De esa manera, explica, aprende lo que nos interesa y lo que nos motiva. El objetivo es viralizar la información y extenderla. Y también, en muchas ocasiones, se difunden de forma desaforada mensajes que llaman a aborrecer al otro. Pero, subraya, lo más serio es el robo de datos que sufrimos a diario mediante esos algoritmos que nos observan, que interactúan y nos manipulan, lo que Helena Matute considera —y yo con ella— lo más grave de este proceso.

Nuevos derechos humanos

Tan alarmante como esa perspectiva en la que ya estamos inmersos es el avance de la neurotecnología. Resulta que hoy varios cientos de laboratorios estudian la fabricación de instrumentos tecnológicos que descifren nuestros cerebros, incluidos nuestros pensamientos más profundos. Un interesante artículo del neurobiólogo Rafael Yuste, de la universidad neoyorquina de Columbia, que publicó El País, dispara las alertas.

Explica que estas herramientas registran la actividad cerebral, o interfieren con ella, situando dispositivos dentro del cerebro o sobre el cráneo. Por supuesto, tales técnicas ayudarán a resolver enfermedades psiquiátricas, pero en otra vertiente más oscura buscan llegar a conocer nuestro subconsciente. El científico relata algo que me parece especialmente certero sobre el trabajo de 25 expertos en el cerebro de diferentes disciplinas, que ya en 2017 plantearon el establecimiento de unas reglas éticas. Afirma Yuste: "Pensamos que estamos ante un problema que afecta a los derechos humanos, ya que el cerebro genera la mente, lo que nos define como especie. Se trata, al fin y al cabo, de nuestra esencia: pensamientos, percepciones, memorias, imaginación, emociones, decisiones…".

Es básico pensar que los nuevos derechos humanos que nos trae este futuro, que ya es el presente, sobrepasan lo conocido y nos exigen un esfuerzo urgente para poner coto a las ilegalidades que en nombre de la ciencia y del progreso se puedan cometer. Propone Yuste varios aspectos a abordar, como la neuroprotección de los datos obtenidos del cerebro, igual que se hace con los trasplantes de órganos, por ejemplo. Otra medida sería que no se pueda comerciar con ellos y precise el consentimiento del individuo afectado, fomentando en paralelo códigos deontológicos en las empresas. Y en materia de ingeniería, que esos datos se protejan tanto mediante hardware como software que impidan su extracción de los dispositivos conectados. Es imprescindible. Apunten el dato de que los científicos están probando ya un polímero que permite interconectar el tejido humano con la tecnología, que cuenta con las propiedades físicas y químicas requeridas y que propicia esa conexión directa de un hardware electrónico a un ser humano.

Arduo trabajo el que tenemos por delante mientras la Inteligencia Artificial va tomando posiciones entre nosotros, cuando seguimos de manera incipiente intentando dilucidar la auténtica esencia de estos nuevos compañeros de viaje que amenazan con sustituirnos.

"Yo he visto cosas que vosotros no creeríais. Atacar naves en llamas más allá de Orión. He visto rayos-C brillar en la oscuridad cerca de la Puerta de Tannhäuser. Todos esos momentos se perderán en el tiempo, como lágrimas en la lluvia. Es hora de morir". Roy Batty, el replicante de Blade Runner, en una historia de ciencia ficción que transcurría en 2019, emocionó a millones de espectadores con estas palabras previas a su final. Pero detrás del androide, detrás incluso del guionista que escribió el texto, se encontraba el actor Rutger Hauer, autor último de estas palabras. La pasión, la ternura, la sensibilidad proceden del humano. El robot depende de nuestra creatividad. O eso necesitamos creer, para no agobiarnos con nuestra inefable decadencia.

Baltasar Garzón es jurista y presidente de FIBGAR

Más contenidos sobre este tema




4 Comentarios
  • Dver Dver 31/08/20 20:21

    Admirado Baltasar: siempre sigo sus intervenciones televisivas y sus artículos con notable interés. No conocía este interés que siente por las distopías, y las emociones que estas puedan crear en los seres humanos, pero no distintas a otros relatos de otros géneros. Parece evidente que cuando alguien lee, escucha o ve un relato, crea un pacto con lo que se va a relatar para admitir lo fantástico o mágico del relato, con el fin de que la historia relatada le emocione.Mas justo este pacto La distancia que sabemos que existe lo que se relata y mundo real es lo que hace que nuestra imaginación vuele, pero no que se extravíe. concluida la función. No pongo en duda ninguno de los asertos que usted indica, y justamente al indicarlos ya está indicando las medidas que deberían tomarse para controlar su exceso. Un antepasado familiar mío del XIX dijo que el temía más a los principios que a los excesos. Obvio, un exceso se corrige; un mal principio es muy difícil de corregir, como vemos estos días, por ejemplo, en los múltiples fallos del sistema que nos hemos dado,dónde es muy difícil cambiar ciertos principios que nos están impidiendo actuar unidos frente a problemas que nos atañen a todos. Sin embargo, soy algo más optimista, o pesimista, tal vez. Y ello es porque desde hace más de treinta años suelo ver cada tarde "los bichos" tal y como llamo yo al programa Grandes Documentales sobre la vida animal y vegetal (incluso mineral) que la 2 emite cada tarde. De ello he aprendido que por encima de cualquier otro instinto, en lo más profundo de nuestro núcleo genético está marcado a fuego el instintivo de supervivencia de la especie; ojo, no el instinto de supervivencia del individuo, sino el de la especie; y ello en cualquier especie animal o vegetal. Las especies se extinguen por muchas razones, normalmente por falta de adaptación al cambiante entorno. Nuestra especie también se extinguirá, lo dijo Carl Sagan, pero no sabemos cuando. Lo que si sé es que ante los cambios ciertos que usted menciona, contamos con la excelsa ayuda de ese inapreciable instinto, y que si lo usamos acertadamente sobreviviremos, y si no, nos extinguiremos.

    Responder

    Denunciar comentario

    0

    2

  • MIglesias MIglesias 31/08/20 19:56

    Las nuevas tecnologías hacen necesario un debate ético en profundidad, las máquinas tendrán que tomar decisiones que pueden significar la vida o la muerte, imaginen un coche autónomo ante la inevitabilidad de un accidente ¿cómo debería reaccionar si las opciones implican tomar una decisión que pone en riesgo a un tercero?, el papel de la filosofía va a ser fundamental en el desarrollo de esta nueva sociedad en pañales, de hecho las grandes tecnológicas ya están fichando filósofos para el desarrollo de la IA.

    Responder

    Denunciar comentario

    0

    1

  • Antonio LCL Antonio LCL 31/08/20 19:39

    Muchas gracias Sr. Garzón por su muy interesante artículo. Contrariamente a sus gustos, no me han atraído en especial los temas relacionados con la ciencia ficción, pero reconozco que son muy sugerentes para el análisis de la evolución de los seres humanos y en muchos casos la ficción nos ha reconfortado con sus propuestas unas veces o nos ha aterrado con soluciones destructivas. La sociedad actual se encamina a velocidad de vértigo hacia el desarrollo y aplicación en todos los campos de la inteligencia artificial. El dilema se sitúa en determinar si lo hace en beneficio de los ciudadanos del mundo o en su propio perjuicio. Me temo que salvo importantes aplicaciones en el desarrollo de la salud, la biología y la tecnología, la aportación en la humanización o no de los seres que habitan este planeta, incluido el desarrollo de la inteligencia emocional y social, ha devenido en decadencia generalizada, excluido el adjetivo inefable como usted señala. Por suerte, su aportación escrita en tan acertado artículo está fuera de mi pesimismo y me gratifica. Enhorabuena y suerte.

    Responder

    Denunciar comentario

    0

    1

  • Juan José Torres Núñez Juan José Torres Núñez 31/08/20 11:20

    Muchas gracias Sr. Grarzón por su excelente artículo, que me recuerda las palabras del conocido dramaturgo inglés, Edward Bond, cuando pronostica que las armas nucleares de destrucción masiva se encuentran en un estado incipiente en su proceso evolutivo hacia una guerra termonuclear. Tres conclusiones claves e inevitables encuentro en su artículo. Una, que "la Inteligencia Artificial va tomando posiciones entre nosotros"; dos, que "estos compañeros de viaje [...] amenazan con sustituirnos"; y tres, que nos encontramos ante una "inefable decadencia". Si nos sustituyen estos robots, ¿cómo se resuelve el problema del paro? ¿Qué papel tendrán los robots en la guerra? ¿Resolverán el problema con las teorías maltusianas, relativas a la necesidad de regular el crecimiento de la población porque sobra gente? Parece claro que caminamos hacia una "inefable decadencia", como usted sugiere.

    Responder

    Denunciar comentario

    0

    2

Lo más...
 
Opinión