"Inteligencias" artificiales poco inteligentes

2

Ramón J. Moles Plaza

La “Inteligencia Artificial” (IA) no es una, son varias y diversas. Incluye distintas tecnologías, con definiciones complejas, que “aprenden”, mejor “se construyen”, a través del reforzamiento (de modo similar a nuestro cerebro) y a partir de gigantescos bancos de datos que les son suministrados por humanos.

Las IA (existen diversos modelos) están de moda, aunque no son nuevas. Existen desde hace años en una escala menos notoria y potente. La novedad es el doble engaño basado en la enorme difusión del incremento de la potencia de sus capacidades y en su apariencia humana (apariencia, que no entidad). Su tramposa mayor difusión deriva de que se han puesto al alcance de cualquiera, no por generosidad, sino para mejorar su construcción por reforzamiento, a lo que han accedido gustosamente millones de usuarios que trabajan y ceden gratis sus datos a los tecno-oligarcas que las han generado. Su engañosa apariencia humana llega al punto de que sus creadores y gestores se refieren a sus errores como “alucinaciones”, cual si las máquinas pudieran alucinar (algo intrínsecamente humano). Existe un evidente interés en divulgar supuestas características humanas del engendro porque precisamente en la fe en estas ficciones radica el atractivo de la cosa: que siendo artificial, parezca tan humano que lleguemos a pensar que pueda tener sentimientos e incluso superarnos en nuestra propia estupidez. Un Frankenstein. Prueben a desenchufar del suministro eléctrico su ordenador mientras operan con una IA. Muy distinto a cualquier humano: tenemos la capacidad de desconectarnos de una conversación plomiza, pero seguimos ahí, “funcionando”.

Las IA abarcan por ahora tres grandes campos de acción: la mejora de la percepción (identificación de rostros, patrones musicales o biométricos, por ejemplo), la mejora de la automatización de procesos de toma de decisiones (hacer recomendaciones sobre restaurantes o moderar contenidos en foros cibernéticos), o la predicción de futuros (construcción de escenarios o calibración de riesgos, por ejemplo). En estos campos las IA no son todavía igual de eficientes en todos ellos: lo pueden ser bastante en procesos de mejora de percepción, no tanto en automatización de decisiones y bastante menos en predicción de futuros. Los recientes modelos de IA que han levantado mayor expectación están asociados a supuestos de IA “generativa”, que, a petición del usuario, genera contenidos (texto, imágenes, sonidos) con algún grado de originalidad a partir de los datos que se le han suministrado.

La IA generativa tiene que ver básicamente con la percepción, pero mucho menos con la automatización fiable o la predicción. Y ello, por una razón: esta tecnología no goza de una precisión elevada como la que requieren la toma de decisiones críticas o las predicciones altamente fiables, sino básicamente de una gran capacidad de convicción del usuario por cuanto usan modos de expresión muy similares a los humanos. En otras palabras: parecen humanas porque se asemejan a la expresión humana (aunque no lo son) y precisamente por ello nos resultan convincentes, pero no pueden discernir sobre la verdad ni la mentira, ni efectuar juicios morales o de oportunidad como hacemos los humanos, ni siquiera son completamente autónomas (dependen de humanos que las construyan, prueben y entrenen, y dependen también del suministro eléctrico para funcionar). Seamos conscientes además de que tras las IA no hay sólo máquinas: lo que hay es inteligencia humana, humanos de carne y hueso. Una reciente investigación de Time reveló que trabajadores africanos infra-retribuidos (3 euros la hora) son los responsables de garantizar que los datos utilizados para entrenar a ChatGPT no tengan contenido discriminatorio. Algo parecido a los moderadores de contenidos de los foros o de Facebook (hoy Meta). En anteriores trabajos describí esta “tecnología” como “algoritmos con dos piernas”.

Parece obvio que no podemos ni debemos confiar aún nuestra toma de decisiones a las IA, al menos aquellas trascendentes y que deban ser muy precisas (juicios de valor, opiniones médicas…). La razón de ello reside más en la calidad del resultado que en la naturaleza del proceso usado por las IA. Siendo el resultado, como indico, poco fiable, no es tan relevante que no sepamos cómo toman sus decisiones estas máquinas, porque tampoco lo sabemos respecto de los humanos: tanto las IA como nosotros somos, en este sentido, cajas negras. La diferencia entre ellas y nosotros es que ellas son cajas negras irresponsables, muy imprecisas y de diseño híbrido humano-máquina. Nosotros somos también cajas negras, aunque la responsabilidad inherente a nuestra toma de decisiones nos lleva –aunque no siempre– a un determinado grado de prudencia y/o relativismo que entiendo que está en el meollo de la inteligencia humana.

Si esta inteligencia social se sustituye por un engendro algorítmico falto de “lo social” y de sus tradiciones y al servicio de sus dueños, supondrá la muerte del Derecho tal como lo conocemos y la pérdida del control sobre la civilización humana

Su escasa inteligencia humana no es óbice para que las Inteligencias Artificiales (IA) estén generando ríos de tinta. El proceso de introducción en la sociedad de cualquier tecnología emergente es siempre muy complejo y no siempre resulta exitoso para sus promotores. En el supuesto de las IA parece evidente que, aunque su entidad precisa y su objetivo final están aún por definir, van a producir cambios radicales y su implantación no va a ser reversible y está siendo muy rápida (OpenAI consiguió cien millones de usuarios activos en dos meses, mientras que Tik Tok tardó nueve meses). Más allá de las ventajas más o menos evidentes que estas tecnologías puedan tener en el manejo de datos, apoyo a decisiones, o simplificación de tareas, emergen rápidamente un sinfín de problemas derivados de su uso, algunos más evidentes que otros: desde la muy evidente capacidad para manipular información (se abre un futuro complejo para los medios de comunicación), adueñarse indebidamente de propiedad intelectual, alterar el mercado de trabajo, aumentar la discriminación o facilitar aún más la concentración de riqueza; hasta los no tan evidentes como la reestructuración del conocimiento humano o el rediseño de la jerarquía humano-máquina, que entiendo, además, que son dos de los mayores problemas surgidos de la puesta en marcha de estas tecnologías: la emergencia de un nuevo marco mental en el cual la idea de inteligencia pasa a ser algo mecánico, individual y controlable por terceros; y la apropiación de la cultura humana por parte de las máquinas. Y todo esto no tiene nada que ver con la supuesta “inteligencia” de estos artefactos, sino con la de sus propietarios y sus ansias de negocio.

La emergencia de este nuevo marco mental nos ubica en un contexto cultural que nada tiene que ver con una idea de inteligencia que hasta hoy ha sido esencial en la evolución humana: la inteligencia social, comunitaria, entendida como suma o multiplicación de las inteligencias individuales que trabajan en común para configurar el saber común (la artesanía, la tradición, la cultura, el derecho, lo que somos, en suma), que no está concentrada en unas pocas manos que se lucran con ella. La inteligencia social es, además, junto con la idea de “poder”, una de las bases principales de nuestros modelos jurídicos, de nuestros Derechos, de un equilibrio destilado a lo largo de siglos de civilizaciones entre derechos y obligaciones que se contrasta con constructos morales y éticos. Si esta inteligencia social se sustituye por un engendro algorítmico falto de “lo social” y de sus tradiciones y al servicio de sus dueños, supondrá la muerte del Derecho tal como lo conocemos y, consecuentemente, la pérdida del control, del poder, sobre la civilización humana.

Difícilmente será posible que estas IA estén alineadas con lo que es nuestra inteligencia social: lo están sólo con sus dueños porque, en la medida que estuvieran acordes con lo social dejarían de ser negocio para quienes las promueven y controlan. Para que sean negocio deben ser concentradamente controlables y nutrirse de materia prima (conocimiento) que sea gratuita, lo que nos conduce a un robo de proporciones siderales: los datos, la información de que se alimentan las IA son de alguien, a quien ni siquiera se le hace saber que están siendo usados, y sin retribución a sus dueños. Desde otra perspectiva, al ser una construcción completamente artificial y no totalmente autónoma, es deudora de los sesgos que le han aportado sus creadores con una limitación muy relevante: al ser artificial no dispone de límites éticos ni de objetivos alineados con los humanos (el llamado problema de alineamiento), lo que choca de lleno con las bases culturales de la civilización humana. La verdad dejará de ser un valor, la dificultad para armar un discurso razonado será enorme en la medida de que el pensamiento crítico tenderá a desaparecer. ¿Qué sucederá si estas tecnologías con apariencia de humanas llegan a ser más “potentes” en términos de razonamiento que el ser humano? Debemos constatar una asimetría en la relación inteligencia humana-inteligencia artificial: como humanos no podemos influir en la estructura discursiva de la máquina (al servicio de su dueño), pero ella sí puede influir en nosotros. Este fenómeno ya se empezó a dar con el auge de las redes sociales y su uso en campañas de manipulación de opinión.

La apropiación de la cultura humana por parte de los dueños de las máquinas es un mecanismo que deriva de la posibilidad que tienen estas tecnologías de “crear”, (más bien copiar gratis) conocimiento humano (música, arte, texto). A partir de ahí podrían acabar generando derecho, religión, ética, incluso (quizás) fuera del control de sus creadores o dueños. Esta apropiación es, además, como indicaba, gratuita, mediante usurpación a sus dueños; en la más pura tradición de los atracos cometidos por las tecnológicas de Silicon Valley desde sus inicios: la economía colaborativa es en realidad explotación de mano de obra barata que hace repartos en bicicleta, alquileres opacos al fisco, banca en la sombra sin protección del usuario o la cesión gratuita de datos tan relevantes como las afinidades sexuales. La IA no paga un céntimo a los dueños de los datos por la información que usa para operar. Sin embargo, nos la presentan como un enorme avance en nuestra evolución tecnológica del que debemos esperar sólo grandes ventajas. Ciertamente, los inteligentes son los dueños de los algoritmos.

_________________

Ramón J. Moles Plaza es jurista.

La “Inteligencia Artificial” (IA) no es una, son varias y diversas. Incluye distintas tecnologías, con definiciones complejas, que “aprenden”, mejor “se construyen”, a través del reforzamiento (de modo similar a nuestro cerebro) y a partir de gigantescos bancos de datos que les son suministrados por humanos.

Más sobre este tema
>