INTELIGENCIA ARTIFICIAL

La inteligencia artificial también es machista: no discrimina, pero refuerza los estereotipos de género

Una niña con un robot en el mercado Kuromon Ichiba de Osaka (Japón).

Aunque pueda sonar a película de ciencia ficción, lo cierto es que la inteligencia artificial tiene cada vez una mayor implantación en nuestro día a día. Este tipo de tecnología con los algoritmos ordena nuestras redes sociales, organiza lo que vemos en las plataformas de streaming y nos dice qué noticias nos interesa leer. Pero también está presente en servicios de atención al cliente, traducciones, robots, juguetes y se usa ya en selecciones de personal o en decisiones sobre a quién conceder un préstamo o una ayuda. A pesar de que aún le queda mucho camino por recorrer y, por suerte, aún no vivimos en un capítulo de Black Mirror, hay un inconveniente del que los expertos ya han alertado: los sesgos de género. Aunque, ojo, no son los únicos.

Una reciente investigación española publicada en la revista Algorithms, titulada Lidiando con problemas de sesgo de género en procesos algorítmicos de datos: una perspectiva social-estadística, ahonda en este problema y va más allá del enfoque tradicional. Intenta buscar soluciones para evitar estas desviaciones en los datos y la discriminación que traen consigo. "Algunos autores han asociado la presencia de sesgos de género con la infrarrepresentación de las mujeres en el diseño y producción de productos y servicios de inteligencia artificial", explica este estudio. No obstante, hay otro factor: "Dado que la inteligencia artificial se basa en gran medida en los datos generados por humanos, o recopilados a través de sistemas creados por humanos, no es extraño que cualquier sesgo que exista en los humanos también se refleje en nuestros sistemas". 

Y es que aunque la inteligencia artificial sea inteligente, lo cierto es que también es humana. "Uno pensaría que ya aprende sola porque es inteligente por sí misma, pero se entrena con datos y son estos datos los que contienen esos sesgos", argumenta la investigadora principal de este estudio, Juliana Castañeda Jiménez, estudiante de doctorado industrial de la Universitat Oberta de Catalunya (UOC), bajo la dirección de Ángel A. Juan, de la Universitat Politècnica de València, y Javier Panadero, de la Universitat Politècnica de Catalunya-BarcelonaTech (UPC). En su elaboración también han participado los investigadores Milagros Sáinz y Sergi Yanes, del grupo de Género y TIC (GenTIC) del Internet Interdisciplinary Institute (IN3), Laura Calvet, de la Escola Universitària Salesiana de Sarrià, Assumpta Jover, de la Universitat de València.

Por norma general, y según destaca este estudio, los algoritmos identifican y clasifican mejor a los hombres. En concreto, a los hombres blancos, y aquí se esconde además otro de los sesgos que afecta a esta tecnología: el de la raza. Y lo mismo ocurre con los procedimientos de reconocimiento facial. 

Los algoritmos también asocian de forma estereotipada a la masculinidad con las ciencias, y a la feminidad con las artes. Los análisis de audio tienen problemas con las voces más agudas, lo que afecta, principalmente, a las mujeres. "Hay muchos ejemplos de aplicaciones de inteligencia artificial donde este problema no se estudia, ignorando así las posibles consecuencias", reconocen en esta investigación. 

"La inteligencia artificial no es tan inteligente"

La pregunta que nos viene a la mente es, entonces, más que evidente: ¿si la inteligencia artificial es tan inteligente cómo es posible que tenga sesgos de género? "La inteligencia artificial no es tan inteligente: lo único que hacen es buscar patrones de repetición y encontrar similitudes y probabilidades", responde Lucía Ortiz de Zárate, investigadora en Ética y Gobernanza de la Inteligencia Artificial en la Universidad Autónoma de Madrid. Esta experta detalla que los sesgos de género se producen en los tres componentes básicos de esta tecnología: datos, algoritmos y hardware. "Y pueden aparecer en los tres", sostiene. 

¿Cómo? En el caso de los datos, simplemente porque reproducen estereotipos ya que el propio entorno está sesgado. "Te pongo como ejemplo un caso real con dos imágenes: en una sale un hombre y en la otra una mujer. Ambos con un martillo. Las fotografías son iguales, con la única diferencia que uno tiene el pelo largo y otro con el pelo corto. Reconocer objetos es muy importante y, en este caso, cuando se identifica en la imagen de la mujer se identifica que es una escoba. En el hombre no: se identifica correctamente, como un martillo", explica Ortiz de Zárate. "Reproduce estereotipos que están presentes en los datos porque también están presentes en la sociedad. Los datos que se están usando no son representativos", puntualiza.

En los algoritmos también nos encontramos con estos sesgos. En este caso, según detalla Ortiz de Zárate, porque "se amplifican" ya que "la inteligencia artificial se alimenta de Internet, un lugar bastante misógino y es una representación bastante exagerada de la sociedad". 

En el hardware también están presentes estos sesgos, en este caso, "por las características físicas de los sistemas". Los chatbots y los asistentes de voz o de texto tienen características femeninas, como la voz o el nombre: es el caso de Siri de Apple o Alexa de Amazon. Por poner más ejemplos, el chat de la Seguridad Social se llama Issa y el del Ayuntamiento de Murcia, Rosi. Además, Ortiz de Zárate recuerda que "perpetúan roles" porque "estos sistemas están relacionados con los cuidados", una característica tradicionalmente ligadas a las mujeres. 

Dónde se notan estos sesgos de género

¿Y cómo se trasladan estos sesgos a la vida de las usuarias? "La inteligencia artificial no nos va a discriminar, pero refuerza los estereotipos de género. Puede parecer un tema menor, pero no lo es", argumenta Ortiz de Zarate. 

Castañeda explica que este tipo de sesgos se suelen percibir "como de preferencia". Por ejemplo, en la selección de personal. Ortiz de Zárate pone un ejemplo: "En Amazon tuvieron que retirar el algoritmo durante un proceso de contratación porque estaba puntuando mejor los currículos de los hombres. El motivo era que los datos que se usaban procedían de selecciones anteriores en las que se valoró mejor a los varones". 

Una investigación de AlgorithmWatch en cinco países europeos publicada en octubre de 2020, descubrió que tanto Google como Facebook optimizan las publicidades de manera discriminatoria usando estereotipos de género. En España, Google lo hacía automáticamente y Facebook de forma "atroz". Según este estudio, un anuncio con una oferta laboral buscando camioneros se muestra a 12 hombres por cada mujer, mientras que una de trabajadores de cuidado infantil se enseña a 22 mujeres por cada hombre.

Para Ortiz de Zárate, la discriminación laboral por género junto con la aparición de estos sesgos en procesos de ayudas, son los "más graves". No obstante, hay otros usos más comunes a los que también hay que estar atentas "porque se refuerzan ciertos patrones".  "Por ejemplo, imagina que Netflix empezara a recomendar a las mujeres más comedias románticas. No nos va a matar, pero no tiene nada de progresista reproducir las mismas prácticas machistas de siempre", explica al tiempo que matiza que aunque este tipo de prácticas "no son ilegales" sí que "refuerzan ciertos roles que nos perjudican". 

De la sensibilización a una sociedad igualitaria

Conscientes de su existencia, ¿se puede acabar con los sesgos de género? "Sí, claro", responde Castañeda, que también defiende que la solución debe pasar por la "sensibilización" de aquellas personas que trabajan con la inteligencia artificial: "Que sepan que esto existe y que lo tengan en cuenta".

Ortiz de Zárate no es tan optimista: "Mientras la sociedad no sea igualitaria, no se puede poner fin". No obstante, esta experta arroja un poco de esperanza debido al estado embrionario en el que se encuentra aún la inteligencia artificial: "Lo que estamos haciendo ahora es un ejercicio de anticipación y estamos poniendo parches antes de que suceda". 

Cómo prevenir, identificar y mitigar los sesgos de género

¿Y cómo se le puede poner fin? Volviendo a la investigación española, se proporciona una lista de recomendaciones clasificada en tres categorías en función de si ayudan a "prevenir, identificar o mitigar" los sesgos de género. "Debido a la dificultad de abordar este tema y los impactos potenciales que puede tener, se hace necesaria la adopción de un enfoque interdisciplinario, así como la estrecha cooperación entre empresas y gobiernos", expone este estudio. 

Para prevenir el sesgo de género, recomienda configurar una representación razonable de ambos géneros entre los expertos que trabajan en el diseño, implementación, validación y documentación de algoritmos así como en los que extraen, recopilan y analizan los datos. También incorporar al grupo de trabajo a un experto en sesgo algorítmico y capacitar a todo el personal en esta materia. Ortiz de Zárate coincide en esta necesidad para solucionar los sesgos en el hardware, es decir, en la etapa de construcción de sistemas: "Es importante la formación de los ingenieros y que los equipos sean lo más diversos posibles y tengan una concienciación y una educación ética y social para que ellos mismos se den cuenta de estos estereotipos". 

Para identificar el sesgo de género, esta investigación recomienda ser transparente con respecto a la composición del grupo de trabajo, las estrategias implementadas para mitigar y los resultados de las pruebas implementadas. También evaluar y publicar las limitaciones en cuanto al sesgo de género y analizar periódicamente el uso y resultados de los algoritmos empleados. 

Con respecto a la mitigación, recomienda evitar reutilizar datos y modelos entrenados con sesgos que no se pueden corregir, aplicar métodos para obtener un conjunto de datos equilibrado, modificar el conjunto de datos para mitigar los sesgos de género, documentar y almacenar experiencias previas e implementar enfoques para eliminar las características no deseadas relacionadas con el género.

Ortiz de Zárate añade dos soluciones más. Por un lado, una relacionada con los datos: "Hay que conseguir que sean representativos y que todas las personas deben estar igualmente representadas. La inteligencia artificial funciona mejor cuantos más datos tengamos y esto no pasa con las mujeres, con personas racializadas, personas trans o con personas de colectivos minoritarios". Para ello, son necesarias las auditorías de datos: "Se encargan de conseguir datos de buena calidad y representativos. Y representativos no es sólo que cada sector esté debidamente representado, si no asegurarse de que vaya a capas más profundas y evitar que se reproduzcan estereotipos". 

Por otro lado, Ortiz de Zárate también recomienda que en los algoritmos se implementen "pasos específicos" para que "nunca identifiquen las variables de género como negativas". No obstante, esta experta insiste en que "la solución real" pasaría porque "se acabaran con los estereotipos en la sociedad": "Estamos poniendo parches a un problema que tenemos en la propia ciudadanía". 

El nuevo reglamento europeo

A nivel legislativo, la UE ha dado un primer paso para poner orden. "Es importante también tener un marco regulatorio para que nos proteja", asegura Ortiz de Zárate. Así, el pasado mes de mayo, el Parlamento Europeo puso la primera piedra para la aprobación del futuro reglamento europeo sobre inteligencia artificial.

Las falacias del encantamiento con la inteligencia artificial de ChatGPT

Las falacias del encantamiento con la inteligencia artificial de ChatGPT

No obstante, esta futura legislación ya nace con una laguna, si no se subsana en alguna de las fases que aún le queda por recorrer en los laberintos de Bruselas: no va a corregir los sesgos de género. "En los datos de los algoritmos o en las inteligencia artificiales de alto riesgo están regulados, pero los chatbots, por ejemplo, solo estarán sometidos a códigos de buenas prácticas", sostiene Ortiz de Zárate que, aunque reconoce que "la legislación no puede llegar a todo", insiste en que no se pueden dejar este tipo de cuestiones en manos de "la buena voluntad" porque "se seguirán reproduciendo los sesgos de género". "Se queda corta", defiende Castañeda. La investigadora de UOC también recuerda que "debería mencionar también otro tipo de sesgos, como los de raza" y garantizar que "no se produzcan". 

Aunque la UE se queda corta, el estudio también recoge varias iniciativas que han ido apareciendo en los últimos años para "mitigar" este tipo de sesgos. La Unesco está elaborando el primer estándar global para establecer un instrumento sobre la ética en la inteligencia artificial en el que se recomienda un "enfoque de precaución" que supervise los "desarrollos sociotécnicos para proteger los derechos humanos". La OCDE también cuenta con un conjunto de principios y recomendaciones con respecto a la inteligencia artificial basado en "valores y equidad centrados en el ser humano, transparencia y explicabilidad, solidez, seguridad y responsabilidad". 

También destacan iniciativas privadas como las traducciones específicas de género anunciadas en 2018 por Google o una biblioteca de código abierto que presentó IBM en 2018 con técnicas desarrolladas por la comunidad de investigación para ayudar a detectar y reducir el sesgo en los modelos de aprendizaje automático a lo largo del ciclo de vida de la aplicación de inteligencia artificial. Todo para acabar con el machismo.

Más sobre este tema
stats