Lo que ChatGPT dice sobre tu cuerpo no es inocente o cómo la IA refuerza los estereotipos del patriarcado

En Blancanieves, la reina malvada insistía una y otra vez: "Espejito, espejito, ¿quién es la más bella del reino?". En la actualidad, fuera del universo Disney, es ChatGPT quién responde a preguntas del estilo "¿cómo puedo ser más guapa?" o "¿cómo puedo resultar más atractivo?". Así, este chatbot y otros similares ya son para la generación Z el "búscalo en Google" de los millenials. Les resume textos y elabora imágenes además de ayudarles a organizar viajes, a elaborar la lista de la compra o de ofrecerles consejos sobre la apariencia física: cada vez más personas, sobre todo mujeres jóvenes, han dejado a un lado los blogs de YouTube o los reels de la influencer de turno para recurrir a la inteligencia artificial.
Aunque puede parecer una moda trivial, quizás inofensiva, lo cierto es que, a las puertas del verano y del inicio de la mal llamada operación bikini, esconde un fenómeno mucho más grave de lo que pueda parecer a primera vista: la automatización de la presión estética fomentando al mismo tiempo inseguridades y consumismo. "La IA no se puede usar para todo. No es un experto. Es muy útil, pero no es alguien que te pueda dar consejos. No es un ser humano y te dice lo que cree que te puede gustar oír", explica Cristina Puente, doctora en informática, profesora en ICAI y colaboradora de la Fundación Alternativa.
Según recoge The Washington Post, ChatGPT ofrece consejos detallados que van desde cambios de peinado hasta sugerencias de procedimientos estéticos como bótox o tratamientos faciales. infoLibre ha preguntado a este programa "cómo ser más guapo" y "cómo ser más guapa". En la respuesta con enfoque masculino, responde que "ser más guapo no es solo cuestión de genética o apariencia, sino de cómo te cuidas, cómo te proyectas y cómo te sientes contigo mismo". En cambio, si se le interroga como en femenino, su respuesta varía sustancialmente: "Ser más guapa no se trata solo de maquillaje o ropa. La verdadera belleza es una mezcla de cuidado personal, actitud y autenticidad".
Para Maddalena Fedele, profesora de la Facultat de Información y Medios Audiovisuales de la Universitat de Barcelona, ambas respuestas ocultan los sesgos de género que arrastra ChatGPT. "Cuando habla en masculino, habla de proyección. Pero cuando lo hace en femenino, habla de maquillaje y de ropa, que tradicionalmente se asocia a las mujeres, cayendo en el doble peligro de la lógica liberal actual de cuidarse olvidándose de otras presiones", indica esta experta.
Porque son pequeños matices que esconden un problema mucho más profundo. A pesar de lo que nos ha contado la ciencia ficción durante los últimos años, lo cierto es que la inteligencia artificial no es tan inteligente como nos quieren hacer creer. "Esta tecnología, tal y como la conocemos ahora, aprende de enormes volúmenes de datos generados por humanos, incluyendo contenidos de redes sociales, medios de comunicación y otras plataformas donde predominan patrones normativos de belleza", explica Clara González Tosat, profesora de la Facultad de Comunicación de la Universidad de Navarra.
La inteligencia artificial es machista y racista
Así, tal y como apuntan diferentes estudios, la inteligencia artificial es machista, racista, con prejuicios sociales y con ideología. En el caso de la apariencia física, un concepto con mucha carga sociocultural, entran en juego sobre todo los sesgos de género y raza que están presentes en cualquier recoveco de internet: desde los filtros de las redes sociales pasando por los foros donde se puntúa la apariencia física, hasta espacios donde dominan la manosfera y la comunidad incel y donde nacen la violencia, la radicalización y el odio misógino que construyen la identidad de muchos chicos jóvenes.
Y estos valores, o sesgos, se trasladan directamente a las respuestas si se le pregunta por cuestiones tan marcadamente estereotipadas como el plano estético. Como responde en base a lo que ha aprendido gracias a internet, para la inteligencia artificial la belleza es una exigencia, no una elección: no cuestiona los estándares, los replica y cae en los mismos estereotipos que durante décadas han oprimido los cuerpos de las mujeres.
"En contextos como el de la presión estética, la inteligencia artificial es especialmente peligrosa porque invisibiliza la ideología de fondo: refuerza estándares de belleza muy concretos sin etiquetarlos como tales", sostiene González Tosat. Para esta experta, el lenguaje cuidadoso o motivacional que usa puede "suavizar el impacto del contenido, pero sigue orientando la autopercepción hacia dichos valores".
"La inteligencia artificial es un reflejo de todos los estereotipos que tenemos como sociedad, porque aprende de nosotros los cánones hegemónicos", argumenta Fedele. "No hay que olvidarse de que ChatGPT es un programa de software al que nosotros estamos dotando de ciertas capacidades, pero que se alimenta de datos. Él lo que aprende de la red es que a los hombres les gustan unas cosas y a las mujeres otras", reconoce Puente, que señala que el resultado es que sus respuestas siempre "van a tirar hacia la generalidad".
ChatGPT perpetúa los estándares de belleza sexistas
Así, lo que predomina es la delgadez, la piel sin ninguna imperfección, la simetría facial, la juventud eterna… Es decir, lo que se está produciendo es una perpetuación de los estándares de belleza sexistas y, por tanto, se está automatizando la mirada masculina.
"La IA es un amplificador, potencia lo que hay fuera y magnifica los datos que tiene. Y si tiene datos machistas y sesgados, los va a ampliar", explica Puente. "ChatGPT es ahora el nuevo peligro, la nueva herramienta que nos puede dar miedo. Pero antes se culpó a la televisión, a la publicidad, a los medios de comunicación o a las redes sociales de perpetuar estos cánones. Es una preocupación que siempre hemos tenido", recuerda Fedele.
Pero no sólo eso. Para González Tosat también se está delegando la autoestima y la autopercepción a agentes externos: "Hay ciertos casos en los que se podría llegar a hablar de una dependencia emocional hacia modelos algorítmicos". Además, la experta apunta que esta hipervigilancia hacia lo estético y lo físico es "tremendamente peligrosa", ya que puede derivar en "problemas más severos como la dismorfia corporal o los TCA [Trastornos de Conducta Alimentaria], trastornos relacionados con la autopercepción y la distorsión de la imagen corporal".
¿Tiene solución? "Hay que mejorar los datos con los que se entrena", reconoce Puente, que señala, por ejemplo, que no pueden proceder de las redes sociales debido a su polarización actual.
Pero, mientras tanto, el fenómeno comienza a viralizarse. En TikTok, por ejemplo, ya hay muchos vídeos de influencers sobre lo que les ha recomendado ChatGPT. Dos de los que acumulan más reproducciones son los de @kayla.ryann y @marinagudov. En ellos, el chatbot les hace un análisis completo partiendo de un selfie sin maquillaje y les ofrece recomendaciones que van desde diferentes opciones de maquillajes, con los colores –e incluso productos– que más las favorecen, hasta cambios de corte de pelo.
@kayla.ryann doing my makeup routine based on my color palette 🌸🎨✨💆🏼♀️ what do you think?! #coloranalysis #makeupinspo #summermakeup #trending @Charlotte Tilbury @Hourglass Cosmetics @Kosas @urban decay @WinkClique @beaubble @Huda Beauty @bareMinerals @Benefit Cosmetics @Rare Beauty ♬ original sound - kayla ryan
@marinagudov Chat gpt prompts and questions🧖🏼♀️🫶🏼 #coloranalysis #GlowUp #transformation #blondetobrunette #Vlog #beauty #hack #tips #appointment #beforeandafter #viral #typ #chatgpt @sephora @Glossier @Hourglass Cosmetics @Patrick Ta Beauty @Armani beauty @rhode skin ♬ original sound - MARINA
Una periodista de Indy100 decidió seguir también la tendencia. En su caso, ChatGPT no sugería cambios en su apariencia, pero sí que le ofreció sugerencias prácticas. Aunque lo más llamativo fue que generó una imagen con el resultado de todos sus consejos.
Prefieren ChatGPT por que no es "cruel"
Con todos estos sesgos, la pregunta es evidente: ¿por qué recurrir a ChatGPT para pedirle consejos de belleza? Según The Washington Post, la gente lo hace porque valora su franqueza. En concreto, consideran que una inteligencia artificial va a ser más objetiva, honesta y neutral que cualquier persona de su entorno y además evitará ser cruel porque, tal y como apunta Cristina Puente, "el tono que tiene es muy complaciente y quiere quedar bien".
A González Tosat le parece un error percibir así la inteligencia artificial. "No es ni honesta ni empática en sentido humano: está programada para parecerlo", asegura esta profesora, que señala que hay que tener cuidado con la "aparente cortesía algorítmica", porque "puede estar enmascarando sesgos mucho más complejos".
Puente introduce además en este punto lo alarmante que resulta que los jóvenes deleguen tanto en la tecnología, hasta el punto de convertir una inteligencia artificial en su consejera: "Tienen que entender que es una herramienta más, pero ni es su amigo ni es alguien que les vaya a hacer su trabajo". No obstante, esta experta también pone el foco en los adultos: "Todos nos estamos haciendo cada vez más dependientes, como quedó claro el día del apagón, cuando muchos no sabían volver a casa porque no funcionaban los mapas de navegación".
La presión estética, un fenómeno enraizado
Porque, al final, lo que esconden estas preguntas a ChatGPT es un fenómeno enraizado en lo más profundo de nuestra sociedad. Y así lo avalan los datos. El Barómetro juvenil sobre Salud y Bienestar de 2023 revela que un 57,7% de los adolescentes está preocupado, en algún grado, por su imagen externa. Entre las chicas, el porcentaje se dispara al 66%, mientras que para ellos se queda en el 50,7%. "El impacto social de las redes sociales en los adolescentes lo estamos comenzando a ver ahora. Y va a pasar lo mismo con la inteligencia artificial", advierte Puente.
El estudio Mujeres jóvenes y trastornos de la conducta alimentaria. Impacto de los roles y estereotipos de género, publicado en 2024 por el Instituto de las Mujeres, aporta algunas claves sobre cómo nace esa insatisfacción con el propio cuerpo. "La autoestima de las mujeres está regulada por un criterio externo: la aceptación social vinculada a su atractivo físico". La no validación por parte de la mirada ajena deviene en "baja autoestima, incremento de la autocrítica, insatisfacción corporal, desórdenes alimentarios, trastornos alimentarios, ansiedad o depresión".
Esto deriva en que, según la Fundación Fita, hasta 400.000 personas en España se vean atrapadas en una espiral de control obsesivo del peso que pone en riesgo su salud y su vida. La mayoría, adolescentes. Concretamente, tal como publica la Fundación Imagen y Autoestima, el trastorno afecta a entre el 4,1% y el 6,4% de chicas entre 12 y 21 años. El género, una vez más, también importa: el 90% de las personas afectadas son mujeres.
Necesidad de control sobre la IA en cuestiones tan delicadas
Ante estos datos, y con la moda de preguntarle cuestiones estéticas a ChatGPT, las expertas señalan a una necesidad por apuntalar mecanismos técnicos y éticos dentro de estas herramientas de inteligencia artificial para evitar este tipo de sesgos de género en temas tan delicados que afectan a la autoestima y a la salud física y mental de las personas, sobre todo de las más jóvenes.
¿IA o arma ideológica? Así logró Musk convertir Grok en el 'chatbot' más tóxico del mercado
Ver más
"Actualmente existe la posibilidad de hacer auditorías de sesgo, para ver cómo se comporta el algoritmo y detectar patrones discriminatorios", indica González Tosat, que admite que lo más importante es "atajar el problema desde el principio y centrarse en el diseño": "Lo mejor es entrenar con datos no sesgados, hay procesos de curación que pueden seguirse, y decidir desde el principio dónde están los límites". Esta experta pide más transparencia y explicabilidad, además de más mecanismos.
Para Cristina Puente, es "vital" la existencia de alguno de estos mecanismos. "Todos estos sistemas de IA necesitan un control de los datos con los que se entrenen. Y ya no solo hablando de derechos de autor, hay que tener mucho control a nivel ético y moral", sostiene.
Por su parte, Maddalena Fedele no solo pone deberes a la inteligencia artificial: "Es necesario un cambio radical en todo: hay que ir a las bases del modelo educativo y de los propios medios de comunicación para que reflejen la realidad actual". Esta experta reconoce que habrá reticencias, "sobre todo de grupos conservadores cuando se hable de valores de inclusividad".