Portada de mañana
Ver
España es el tercer país más opaco de la UE sobre la propiedad de los medios después de Chipre y Hungría

INTELIGENCIA ARTIFICIAL

¿Está justificado el temor de los gurús de Silicon Valley al avance de ChatGPT? Sí, pero un parón no es realista

Exposición 'AI: More than human' en la Sala Afundación de A Coruña.

"Disfrutemos de un largo verano sin inteligencia artificial, no nos apresuremos a caer sin estar preparados". Así concluye la carta abierta conocida el miércoles y firmada por más de 2.000 personas, entre los que se encuentran cientos de académicos e investigadores especializados en la materia además de los gurús de la industria como Elon Musk o Steve Wozniak —cofundador de Apple— e intelectuales como Yuval Noah Harari. La misiva, publicada en el Future of Life Institute, solicita parar "de inmediato y durante al menos seis meses el entrenamiento de los sistemas de inteligencia artificial más potentes que GPT-4" y aprovechar este tiempo para "trabajar con los legisladores para acelerar drásticamente el desarrollo de sistemas sólidos de gobierno".

La pregunta tras la lectura de esta petición es evidente: ¿Estamos yendo demasiado rápido con la inteligencia artificial? "Sí que lo estamos haciendo, pero con todas las tecnologías de inteligencia artificial en general, no sólo con GPT-4", sostiene Lucía Ortiz de Zárate, investigadora en Ética y Gobernanza de la Inteligencia Artificial en la Universidad Autónoma de Madrid. "Estoy de acuerdo con la carta", asegura esta experta que también reconoce que se trata de un "ejercicio de cara a la galería" aunque le consta que "hay gente que ha firmado que están comprometidos"

Entre ellos se encuentra el director del Instituto de Investigación de Inteligencia Artificial del CSIC Carles Sierra, el investigador Ramón López De Mantaras o la catedrática de Psicología Experimental de la Universidad de Deusto Helena Matute, que explicó en la Cadena Ser que es una "tecnología que a día de hoy pueden hacer muchas cosas. Están siendo un foco de desinformación tremendo y lo que está en peligro es la democracia". También la ha firmado Carissa Véliz, doctora en filosofía por la Universidad de Oxford y autora del libro Privacidad es poder. Datos, vigilancia y libertad en la era digital: "La población general no debe usarse como conejillo de indias. [La carta] no es perfecta, no es ideal y no es un sustituto de la regulación democrática. Pero suena la alarma. Le damos municiones a los políticos".

Otro caso bien diferente es la firma de Musk, que fue uno de los inversores iniciales de OpenIA y posteriormente abandonó la empresa detrás de ChatGPT. "Me sorprende que pida esto cuando está haciendo lo que le da la gana", afirma Ortiz de Zárate. 

El señalado: ChatGPT

En realidad, aunque en la misiva se hable de esta tecnología en general, se centran en ChatGPT porque "son modelos de caja negra impredecibles", es decir, que es difícil acceder a su funcionamiento interno ya que su estructura, lógica y componentes son imposibles de dilucidar. Es más, la propia carta matiza que su petición "no significa una pausa en el desarrollo de la inteligencia artificial en general, simplemente un paso atrás en la carrera peligrosa hacia modelos de caja negra impredecibles cada vez más grandes con capacidades emergentes". 

A pesar de que las exigencias encima de la mesa no están fuera de lugar, a Ortiz de Zárate le chirrían varias cosas. Por un lado, que se centre sólo en ChatGPT: "Hay otras tecnologías que conocemos con las que también estamos yendo demasiado rápido y aún no somos conscientes de sus riesgos". Esta experta pone como ejemplo su huella de carbono: "Son impactos reales ya y no conocemos sus consecuencias".

Y, por otro, no entiende este "alarmismo" tan repentino ya que no ve "ahora mismo algo tan radical y tan diferente" a las implicaciones que tienen otras tecnologías: "Las alarmas saltaron hace mucho". Para Ortiz de Zárate sólo habría una explicación: que se estuvieran desarrollando ya "superinteligencias o inteligencias artificiales generales", es decir, aquellas que igualan o exceden la inteligencia humana promedio por lo que una máquina podría realizar con éxito cualquier tarea intelectual de un ser humano. "Entre los firmantes hay gente importante y suponemos que tienen información que el resto no conocemos", admite esta investigadora. 

"El parón no es realista"

¿Es viable frenar durante seis meses el entrenamiento de estos sistemas de inteligencia artificial? "No es realista este parón. Los únicos que tienen la capacidad de ralentizar o poner ciertos requisitos son los Gobiernos", afirma Ortiz de Zárate que, sin embargo, reconoce que sería positivo frenar el ritmo para "para medir y regular". En la carta, explican que la pausa debe ser "pública y verificable, e incluir a todos los actores clave". "Si no se puede promulgar rápidamente, los gobiernos deberían intervenir e instituir una moratoria", detalla la misiva. 

No es la única petición que ponen encima de la mesa a las autoridades: "Los desarrolladores de inteligencia artificial deben trabajar con los legisladores para acelerar drásticamente el desarrollo de sistemas sólidos de gobierno". "La humanidad puede disfrutar de un futuro floreciente con la inteligencia artificial. Habiendo tenido éxito en la creación de poderosos sistemas, ahora podemos disfrutar de un verano de inteligencia artificial en el que cosechamos las recompensas, diseñemos estos sistemas para el claro beneficio de todos y le damos a la sociedad la oportunidad de adaptarse", argumenta la carta. 

El escenario apocalíptico que dibuja esta carta abierta

El documento expone que la inteligencia artificial puede representar "un cambio profundo en la historia" y debe "planificarse y administrarse con el cuidado y los recursos correspondientes" ya que estos sistemas se están volviendo "competitivos para las tareas generales". Así, este manifiesto pone encima de la mesa los riesgos: la desinformación, la automatización de todos los trabajos, el desarrollo de mentes no humanas que podrían terminar reemplazándonos o la pérdida de control de la civilización. "Estas decisiones no deben delegarse en líderes tecnológicos no elegidos. Los sistemas potentes deben desarrollarse solo una vez que estemos seguros de que sus efectos serán positivos y sus riesgos serán manejables", admite. 

"Se están moviendo en escenarios apocalípticos y me parece un mensaje muy peligroso", defiende Ortiz de Zárate. Para esta investigadora, sin embargo, no tienen que llegar estos sistemas de inteligencia artificial para "perder el control sobre muchos elementos de la gobernanza en términos más tangibles". "Tenemos muchos problemas anteriores y esto lo veo como lejano", sostiene.

Musk, Steve Wozniak y otros mil expertos piden detener los experimentos con inteligencia artificial

Musk, Steve Wozniak y otros mil expertos piden detener los experimentos con inteligencia artificial

Eso sí, esta experta coincide en la importancia de poner el foco en la desinformación ya que ChatGPT y tecnologías similares son "herramientas muy potentes para incrementarla" y reconoce que la creación de OpenIA no tiene capacidad para "identificar si las fuentes son falsas o no". Ortiz de Zárate además pone como ejemplo los recientes deep fakes de Donald Trump siendo detenido o la del papa Francisco con un abrigo de plumas

Italia bloquea temporalmente ChatGPT

A pesar de la dureza de la carta en OpenAI están bastante tranquilos. O eso es por lo menos lo que traslada su CEO, Sam Altman. "Todo muy calmado en el ojo del huracán", publicó en su cuenta de Twitter. Previamente, el máximo responsable de ChatGPT dejó su propia aportación al debate con tres elementos que hay que tener en cuenta para afrontar con seguridad el futuro si se llegase a desarrollar una superinteligencia: capacidad técnica, suficiente coordinación entre los principales proyectos de inteligencia artificial y un marco global efectivo que incluya la gobernabilidad democrática. 

Aunque la carta parece no preocupar en Open AI, quizás las alarmas hayan saltado este viernes en Silicon Valley después de que Italia haya decidido bloquear ChatGPT de forma temporal para investigar la recopilación ilícita de datos personales y la ausencia de sistemas de verificación de la edad de los menores. En concreto, la agencia italiana de protección de datos ha decidido restringir provisionalmente el acceso a esta herramienta para evitar así que  procese los datos de los usuarios del país hasta que se esclarezca si cumple o no con el Reglamento General de Protección de Datos de la UE después de que el pasado 20 de marzo sufriese una brecha de datos con respecto a las conversaciones de los usuarios e información relativa a los suscriptores del servicio de pago. "Si Italia tiene sospechas, podría afectar a toda la UE", avisa Ortiz de Zárate. 

Más sobre este tema
stats