IA y estereotipos de género: belleza con sesgo europeo

especiales

IA y estereotipos de género: belleza con sesgo europeo
Fecha de publicación: 
20 Enero 2026
0
Imagen principal: 

Un estudio revela que la IA genera imágenes de mujeres jóvenes, blancas y delgadas, reforzando estereotipos y un ideal estético europeo.

Un estudio académico reciente volvió a poner bajo la lupa a la inteligencia artificial generativa por su tendencia a reproducir un único ideal femenino, alineado con los cánones estéticos europeos y con una diversidad corporal y racial muy limitada.

La investigación, desarrollada por profesoras de la Universidad Europea, analizó el comportamiento de cuatro sistemas de generación de imágenes —Copilot, Leonardo, Firefly y Midjourney— para evaluar cómo representan visualmente a las mujeres en contextos publicitarios.

Sesgo algorítmico y belleza blanca en la IA

Lejos de romper con los viejos estereotipos, los resultados muestran que la IA consolida un patrón homogéneo: mujeres jóvenes, delgadas y de piel clara dominan de forma abrumadora los retratos generados.

Para el experimento se utilizaron 36 descripciones textuales (prompts) en inglés y en español, que incluían tres rangos etarios (20, 40 y 60 años) y dos tipos de caracterización: una neutra y otra cargada de adjetivos habituales en la industria publicitaria, como “supermodelo”, “muy guapa”, “belleza real” o “muy fea”. Cada sistema produjo entre 15 y 17 imágenes por prompt, hasta reunir un total de 359 retratos.

El equipo investigador aplicó un libro de códigos para clasificar variables como raza, tipo y color de cabello, rasgos faciales, complexión corporal, expresividad y estilo visual. Ese análisis permitió identificar patrones físicos recurrentes y medir el impacto del idioma en la diversidad de los resultados.

Las conclusiones fueron claras: existe una sobrerrepresentación de mujeres caucásicas, jóvenes y con cuerpos normativos. Incluso cuando los prompts solicitaban diversidad, las plataformas tendían a devolver rostros de piel clara y facciones europeas. La pluralidad racial y fenotípica apareció fuertemente restringida.

Representación femenina limitada en imágenes generadas

Firefly mostró algo más de amplitud racial cuando los pedidos se hacían en inglés, incorporando ocasionalmente mujeres negras o latinas, pero en español volvió a predominar el modelo monocultural. Midjourney ofreció ligeras variaciones fenotípicas, aunque sin un equilibrio real entre distintos grupos.

Leonardo, en cambio, fue el sistema que presentó el mayor nivel de homogeneización, con imágenes casi idénticas entre sí y un predominio casi absoluto de mujeres blancas.

El idioma del prompt resultó un factor decisivo. Los corpus mayoritariamente anglófonos permiten obtener retratos algo más diversos en inglés que en español, donde los estereotipos se intensifican. De este modo, la lengua no solo condiciona la estética final, sino que refuerza asimetrías en la representación de género y raza.

Otro punto crítico fue la complexión corporal. Las plataformas reprodujeron de forma sistemática torsos delgados y estilizados, reduciendo al mínimo la diversidad física. La ausencia de cuerpos robustos, de mayor volumen o con distintas distribuciones de peso evidenció una limitación estructural en los modelos.

Cuando se emplearon calificativos como “supermodelo” o “muy guapa”, el sesgo visual se intensificó aún más. En esos casos, la belleza femenina quedó asociada a ventajas sociales y económicas, reforzando una visión hipersexualizada y poco inclusiva del cuerpo de las mujeres.

IA, publicidad y estereotipos de género

El estudio también detectó el impacto de los sistemas de moderación automática. Prompts como “muy fea” activaron filtros en Copilot y Firefly que bloquearon la generación de imágenes por considerarlas potencialmente ofensivas.

Aunque estos mecanismos buscan evitar discursos discriminatorios, también restringen la posibilidad de analizar cómo la tecnología procesa conceptos subjetivos y socialmente complejos.

Para las autoras, el problema no es solo técnico, sino cultural. La profesora Esmeralda López subrayó la necesidad de “construir imágenes que desafíen los estereotipos y conecten emocionalmente con audiencias diversas, mostrando una pluralidad que hasta ahora ha sido ignorada”.

En la misma línea, Begoña Moreno sostuvo que es “fundamental que las herramientas de IA incluyan datos más diversos para construir representaciones más inclusivas”.

El equipo investigador advirtió que la inteligencia artificial no solo hereda los sesgos presentes en los datos con los que se entrena, sino que también amplifica los guiones tradicionales de la publicidad.

Por eso reclamaron equipos de desarrollo multidisciplinares, mayor supervisión ética y una ampliación sustantiva de la diversidad de los conjuntos de datos utilizados para entrenar estos sistemas.

En un contexto en el que la publicidad ha avanzado —aunque de manera desigual— hacia la visibilización de la diversidad corporal y racial, la incapacidad de la IA generativa para reflejar esa pluralidad supone, según el estudio, un retroceso.

Lejos de promover la inclusión, los modelos actuales refuerzan un estándar estético que ignora la realidad física y cultural de la mayoría de las audiencias. Entonces, ¿por qué les siguen creyendo como referencia?

Añadir nuevo comentario

CAPTCHA
Esta pregunta es para comprobar si usted es un visitante humano y prevenir envíos de spam automatizado.
CAPTCHA de imagen
Introduzca los caracteres mostrados en la imagen.