INTELIGENCIA ARTIFICIAL

El 'padrino' de la inteligencia artificial se une a los desertores de Silicon Valley y avisa de su uso "aterrador"

Una mujer interactúa con 'Alter', un cuerpo de máquina con rostro y manos de tipo humano que aprende interactuando con el mundo que lo rodea, en la exposición 'AI: More than human' en Londres.

Geoffrey Hinton, conocido como el padrino de la inteligencia artificial, pasó el pasado martes en pocos segundos de pionero a profeta apocalíptico de esta nueva tecnología a la que todos los expertos señalan como la gran revolución de este siglo. Tras anunciar esta misma semana que deja su puesto en Google, el también ganador del premio Princesa de Asturias de Investigación Científica y Técnica 2022 explicó en sendas entrevistas en The New York Times y en la BBC que abandona su trabajo en Silicon Valley para alertar con libertad sobre los desarrollos y los riesgos que plantea la inteligencia artificial para la sociedad: "Sus usos son realmente aterradores". "Si hay alguna forma de controlarla, debemos descubrirla antes de que sea tarde", defendió este mismo domingo en El País.

Hinton no es el primero con una gran creación a su espalda que termina criticando abiertamente a su obra. ¿Se arrepiente? "Me consuelo con la excusa de que si yo no lo hubiera hecho, alguien lo habría hecho", reconoció el padrino de la inteligencia artificial que se suma así a una larga lista de desertores del espíritu capitalista de Silicon Valley. Sin embargo, la censura a sus propias creaciones es algo habitual en este rincón californiano.  

El inventor del scroll infinito, Aza Raskin, confesó en una entrevista a la BBC en 2018 que se arrepentía de haber creado esta funcionalidad porque "es como si estuvieran tomando cocaína y la rociaran por toda la interfaz, y eso es lo que te mantiene con ganas de regresar una y otra vez". El creador del botón me gusta de Facebook, Justin Rosenstein, confesó tras su salida del imperio de Mark Zuckeberg que lamenta haber desarrollado esta función y que ya no tiene redes sociales en su móvil por miedo a la adicción: "Son como brillantes timbres de pseudoplacer". "Estos servicios están matando a gente haciendo que se suiciden", advirtió Tim Kendall, expresidente de Pinterest, en el documental El dilema de las redes sociales

"Hay que diferenciar por un lado el asunto científico y por otro el producto. Lo critican porque no sabían el uso que se le iba a dar a lo que ellos han desarrollado", explica Amparo Alonso Betanzos, catedrática en Ciencia de la Computación e Inteligencia Artificial y coordinadora del grupo de investigación y desarrollo de Inteligencia Artificial de la Universidade de A Coruña. "Cuando las tecnologías que anhelaban y perseguían están ya creadas, o a punto de ser creadas, se dan cuenta de que los problemas éticos y sociales son reales e inminentes", argumenta Lucía Ortiz de Zárate, investigadora en Ética y Gobernanza de la Inteligencia Artificial en la Universidad Autónoma de Madrid. Esta experta también advierte que todos, incluidos estos ingenieros, deberíamos entender que "no toda tecnología es progreso y que algo sea técnicamente posible no significa que debamos hacerlo". 

Y en este hacerlo o no, se encuentra ahora el debate sobre inteligencia artificial. Y el paso al frente de Hinton puede ser un momento crucial dentro del actual boom que vive esta tecnología. "No estoy segura de que sea un punto de inflexión, ojalá que sí, pero el hecho de que lo diga Hinton va a tener mucho más impacto", reconoce Ortiz de Zárate. Por dos motivos: "Primero, porque él ha trabajado para Google y, por tanto, conoce de primera mano cómo es el estado actual de desarrollo. Y segundo, porque es ingeniero y eso, a día de hoy, para muchos sigue teniendo mayor credibilidad que un grupo de académicos o filósofos". 

"La gente debería estar feliz de que estemos un poco asustados"

No obstante, Hinton no es ni mucho menos el primero que enciende la luz roja con respecto a la inteligencia artificial. A finales de marzo, se publicó una carta abierta que ya acumula más de 10.000 firmas, entre los que se encuentran gurús de la industria como Elon Musk o Steve Wozniak —cofundador de Apple— e intelectuales como Yuval Noah Harari, que solicitaba parar "de inmediato y durante al menos seis meses el entrenamiento de los sistemas más potentes que GPT-4" y aprovechar este tiempo para "trabajar con los legisladores para acelerar drásticamente el desarrollo de sistemas sólidos de gobierno".

Sólo un par de días después, con mucho menos eco mediático, 19 líderes de la Asociación para el Avance de la Inteligencia Artificial publicaron su propia carta advirtiendo sobre los riesgos de la inteligencia artificial. Entre ellos se encontraba Eric Horvitz, director científico de Microsoft, que ha implementado tecnología de OpenAI —la empresa detrás del popular ChatGPT— en sus productos, incluído su motor de búsqueda Bing. 

Porque el gran señalado por estos gurús de Silicon Valley es OpenAI. Su CEO, Sam Altman, no se ha mostrado muy alarmado por este doble tirón de orejas. Sin embargo, en una entrevista en ABC News previa a ambas misivas aseguró que está "particularmente preocupado" porque modelos como su ChatGPT se usen para "la desinformación a gran escala". "Creo que la gente debería estar feliz de que estemos un poco asustados por esto", confesó. 

Las otras críticas dentro de Google

Un miedo que no es nuevo tampoco en Silicon Valley. Una de las primeras en alzar la voz fue Timnit Gebru. En 2021, esta ingeniera era codirectora de Ética para la inteligencia artificial de Google y publicó un informe titulado El peligro de los loros estocásticos que alertaba de los riesgos de los modelos de lenguaje, como ChatGPT, advertía de los problemas de sesgos y exigía una mayor regulación. "Avisó de los riesgos y fue despedida", recuerda Alonso Betanzos. 

Un movimiento polémico a la vez que llamativo porque de puertas para fuera es habitual escuchar a los popes de Google ser críticos con sus avances en esta materia. Su CEO, Sundar Pichai, llegó a confesar en una entrevista en CBS este mismo mes de abril que ni siquiera él entendía completamente todo lo que hacía Bard, un chatbot que, según publicó Bloomberg en abril, muchos de los investigadores e ingenieros consideraban que no estaba listo porque es "un mentiroso patológico". 

El creador y CEO de DeepMind —ahora propiedad de Google—, Demis Hassabis también compartió esta misma semana durante un evento de The Wall Street Journal parte de la preocupación de su excompañero Hinton: "Abogaría por desarrollar las tecnologías AGI —aquellas con capacidad de comprender y realizar tareas intelectuales similares a las de los seres humanos— con cautela y con experimentos controlados". Eso sí, matizó que no ve razones para que "ese progreso vaya a ralentizarse", más bien todo lo contrario. 

E incluso extrabajadores de Google han alertado sobre los riesgos de la inteligencia artificial. Tristan Harris, ex diseñador ético de la compañía conocido ahora en el mundillo tecnológico como "la conciencia de Silicon Valley", aseguró en un podcast del Center for Human Technology a finales de marzo que el sentimiento que tiene ahora es "como si fuera 1944 y recibes una llamada de Robert Oppenheimer para formar parte del Proyecto Manhattan. No tienes idea de lo que es, pero te dicen que el mundo está a punto de cambiar de manera fundamental, aunque su despliegue sea peligroso". 

"Pensé que faltaban entre 30 y 50 años. Ya no pienso así"

¿Y porqué Hinton decide tomar partido justo ahora? "Algunas personas creían en la idea de que estas cosas realmente podrían volverse más inteligentes que los humanos. Pero la mayoría, pensaba que eso estaba muy lejos de pasar. Yo pensé que faltaban entre 30 y 50 años, o incluso más. Obviamente, ya no pienso así", reconoció el padrino de la inteligencia artificial esta misma semana.  

Pero las preocupaciones de Hinton no se terminan aquí. También puso el acento en que los contenidos generados por herramientas como ChatGPT llenen Internet de desinformación. "Ya no seremos capaces de saber qué es verdad", advirtió. "En sociedades ya polarizadas, un contexto de desinformación masivo basado en inteligencia artificial significa poner en riesgo total nuestros sistemas democráticos y vivir en un mundo donde reinase la desconfianza", sostiene la investigadora Ortiz de Zárate.

Hinton también señaló el impacto que tendrá la inteligencia artificial en el mercado laboral o en la privacidad. "Cuanto más potente es el sistema, y ChatGPT y sus análogos lo son, necesitan más datos, por lo que potencialmente aumentan los problemas de privacidad", argumenta Ortiz de Zárate. 

"Es difícil evitar que los malos la utilicen para cosas malas"

Y, como no, el posible desarrollo de armas autónomas. "Es difícil evitar que los malos la utilicen para cosas malas", apuntó Hinton a The New York Times. Una idea que amplió en la BBC: "Por ejemplo, algún mal personaje, como Putin, decide dar a los robots la capacidad de crear sus propios objetivos secundarios". ¿Qué significa esto? "El problema es que, según él, las inteligencias artificiales que se están creando pronto desarrollarán su propio algoritmo y, por tanto, tomarán decisiones autónomas. Es decir, podrán no seguir nuestras instrucciones. Esto no las hace inteligentes, pero sí peligrosas al estar fuera de control", explica Ortiz de Zárate. 

¿Se deja algo en el tintero Hinton? "Otros problemas que existen son los problemas de discriminación generados por sesgos de raza, género u orientación sexual en los datos que se usan", expone Ortiz de Zárate que también pone el foco en los problemas de justicia social o los ecológicos. "Estos modelos consumen muchísima energía y estamos usando recursos como si fueran inacabables", recuerda Alonso Betanzos. Esta profesora también destaca "los neuroderechos o la implantación de chips en el cerebro que se inmiscuye en el yo personal y que se adelantan a lo que pensamos": "Esto es peligroso, porque es una intromisión en nuestros pensamientos, y necesita una regulación". 

La necesidad de una regulación

¿Está justificado el temor de los gurús de Silicon Valley al avance de ChatGPT? Sí, pero un parón no es realista

¿Está justificado el temor de los gurús de Silicon Valley al avance de ChatGPT? Sí, pero un parón no es realista

¿Está Hinton siendo demasiado agorero? Muchos otros expertos, incluidos muchos de sus estudiantes y colegas, aseguran que todas estas amenazas son hipotéticas. Sin embargo, el padrino de la inteligencia artificial insiste en la carrera que han iniciado Google y Microsoft tras la irrupción de ChatGPT. "Se ha instaurado una competición por ir produciendo herramientas cada vez más sofisticadas", señala Alonso Betanzos. "No veo a nadie bajándose de esta carrera, nos lleve a donde nos lleve", afirma Ortiz de Zárate que defiende que darle vacaciones, como sugerían los gurús de Silicon Valley en su carta, es "muy complicado" porque "hay mucho dinero invertido", "muchas cuotas de poder que ganar" y "conflictos geopolíticos abiertos".

Hinton insiste en que sólo una regulación gubernamental puede poner freno a esta carrera. "A diferencia de las armas nucleares no hay forma de saber si las empresas o los países están trabajando en la tecnología en secreto", confesó el ya extrabajador de Google. Un nuevo marco en el que, por ejemplo, en Bruselas ya están trabajando. La UE ya prepara una legislación que pondrá límites a la inteligencia artificial, sobre todo en el campo de la privacidad. Este reglamento pionero apuesta por no poner  grandes prohibiciones, con mayor control y transparencia, y dejando los usos más comunes a merced de códigos de conducta voluntarios. 

"La regulación es imprescindible, pero no quiere decir que se pare de desarrollar la inteligencia artificial. Una cosa es regular los productos y otra es frenar la tecnología", sostiene Alonso Betanzos. "Creemos que la tecnología va a hacer nuestras vidas mejores, pero no. Lo único que puede hacer nuestras vidas mejores es pensar para qué queremos la inteligencia artificial y cómo puede ayudarnos a conseguir ese propósito", concluye Ortiz de Zárate. 

Más sobre este tema
stats