La ciudadanía necesita explicaciones (también por parte de la Inteligencia Artificial)

Lucía Ortiz de Zárate

Los seres humanos necesitamos explicaciones. Las explicaciones, entendidas como aquellas declaraciones cuya intencionalidad es la de aclarar y/o dar a entender las causas y motivaciones de ciertos hechos, fenómenos o actos, son frecuentes en muchos contextos sociales. En general, las personas demandamos explicaciones sobre todos aquellos sucesos que no comprendemos o que no parecen coherentes con nuestra propia lógica y visión del mundo. Les preguntamos a nuestros amigos por qué no nos incluyeron en su plan la semana pasada, nos preguntamos por qué nuestra jefa nos ha despedido, por qué hace de repente tanto frío, por qué nuestro gato no nos hace caso o por qué nuestra pareja nos ha dejado. En estos casos demandamos explicaciones, aunque, a veces, no las recibamos o no lleguemos a comprenderlas.

En nuestra vida social, dar explicaciones es algo importante, pero no obligatorio. Su ausencia no implica la infracción de ninguna ley jurídica (aunque quizás sí moral). Sin embargo, en el ámbito jurídico, negarse a dar explicaciones sí puede conllevar algún tipo de penalización al suponer un grave obstáculo para el correcto desarrollo de ciertos procedimientos legales. En este sentido, es obvio que las explicaciones juegan un papel importante en nuestras vidas, privadas y públicas, motivadas a veces por cuestiones morales y otras por obligaciones legales. Sin embargo, ¿tendría sentido exigir explicaciones a las máquinas?

Muchos podrían pensar que no. Las explicaciones se las exigimos a las personas porque entendemos que detrás de sus accesiones y palabras hay una intención basada en ciertos razonamientos. Algo que, a priori, difícilmente se puede aplicar a las máquinas. Pero la aparición de nuevas tecnologías como la Inteligencia Artificial (IA) ha revalorizado el —a veces denostado— arte de dar explicaciones. Ante las previsiones de que la IA acabe protagonizando y asistiendo la toma de muchas de las decisiones importantes que afectan a nuestra vida (selección para un puesto de trabajo o promoción interna, asistencia sanitaria, concesión de hipotecas o ayudas públicas, etc.), se ha convertido en una necesidad que este grupo de tecnologías cumplan con el principio de explicabilidad, es decir, que sean capaces de dar explicaciones de sus decisiones y/o recomendaciones.

Como hemos dicho, las explicaciones suelen darse, bien por motivos morales, o bien por motivos legales, y aunque quizás no sea muy evidente, ambas cosas pueden aplicarse a la IA. En el campo de la IA las explicaciones son importantes, al menos, por cinco razones que ilustraremos con el ejemplo siguiente: un sistema de crédito inteligente que se usa para adjudicar o denegar hipotecas a los clientes de un banco.

Las explicaciones suelen darse, bien por motivos morales, o bien por motivos legales, y aunque quizás no sea muy evidente, ambas cosas pueden aplicarse a la Inteligencia Artificial

En este caso, la explicabilidad es importante, primero, para garantizar la trazabilidad de los algoritmos, de tal modo que si algo sale mal los encargados de supervisar el algoritmo puedan entender el proceso de toma de decisiones que ha tenido lugar y solucionarlo para que no vuelva a ocurrir. Segundo, para asegurar que se cumplen los mecanismos que habilitan la rendición de cuentas. Este punto está estrechamente ligado con el anterior. Si un sistema de crédito inteligente, como el del ejemplo, recomendase a mi banco denegarme una hipoteca, yo querría (y tendría derecho) a saber el porqué de esa decisión y, en el caso de que estuviese tomada con base en criterios, por ejemplo, discriminatorios, exigir responsabilidades (legales) por los daños que se me han podido causar. En estos casos, la rendición de cuentas solo es posible si sabemos qué parte del proceso ha fallado para así poder atribuir responsabilidades y sanciones. ¿Ha sido el banco quien ha usado unos criterios equivocados? ¿Ha sido un error de funcionamiento del algoritmo? ¿Un fallo en el diseño? Todo esto solo podemos saberlo si se garantiza la explicabilidad algorítmica.

Tercero, porque solo si conocemos cómo funciona un algoritmo (si es explicable), podemos saber qué requisitos éticos se le están aplicando y si es necesario demandar otros nuevos. Cuarto, porque aún en el caso de que todo saliese bien y se me concediese la hipoteca que he pedido, tendría derecho a saber los criterios que se han utilizado para mi evaluación, como sucede en el caso de los procesos de selección tradicionales. Quinto, porque entender cómo funciona algo ayuda a generar confianza. Es razonable pensar que la ciudadanía tenderá a confiar más en aquellos sistemas de IA cuyo comportamiento puedan conocer, entender, evaluar y corregir.

Por estos motivos, la explicabilidad se ha convertido en uno de los principios éticos fundamentales de la IA, reconocido por la Unión Europea y la UNESCO. Dar explicaciones es ahora también una cuestión de máquinas.

_______________________

Lucía Ortiz de Zárate es investigadora en Ética y Gobernanza de la Inteligencia Artificial en la Universidad Autónoma de Madrid.

 

Más sobre este tema
stats