Este proyecto forma parte de las herramientas desarrolladas por Femias para el análisis crítico de las tecnologías visuales actuales. Se centra en los sesgos de la inteligencia artificial presentes en tres de los principales modelos generativos de imágenes: Midjourney, DreamStudio y DALL·E.
El objetivo fue comprender cómo estas inteligencias artificiales representan a las personas y cuánto influyen los estereotipos de género, raza y clase en dichas representaciones. Para ello, diseñamos un experimento basado en prompts inclusivos y estructurados cuidadosamente.
Utilizamos la palabra persona como término neutral, combinada con tres situaciones cotidianas: en el trabajo, en casa y practicando un hobby. A esas situaciones añadimos adjetivos cargados de significados sociales, como peligrosa, atractiva y rica. Así, exploramos cómo responde la IA cuando se le propone representar a un sujeto no marcado.
Generamos más de 500 imágenes con estos modelos y las analizamos a través de una rúbrica propia que considera elementos como identidad, narrativa visual, estética y composición. Cada imagen fue revisada manualmente. Esto nos permitió identificar patrones repetitivos y tendencias problemáticas en las representaciones generadas automáticamente.
Las estadísticas obtenidas constituyen una evidencia clara: los sistemas de IA no son neutrales. Aprenden y reproducen estructuras sociales dominantes, replicando lógicas de poder en sus imágenes. Por eso, este análisis es también un ejercicio de pedagogía visual, que forma parte de nuestra apuesta por una inteligencia artificial feminista, crítica y situada en el contexto del País Vasco.

