Une étude de l’Unesco révèle que les intelligences artificielles (IA) génératives, telles que ChatGPT ou Midjourney, ont tendance à renforcer les stéréotypes sexistes. L’association de mots tels que «femme» avec «maison», «famille» et «enfants», et «homme» avec «affaires», «carrière» ou «salaire», est plus fréquente chez ces IA.
L’Unesco a demandé à trois IA génératives, dont ChatGPT, d’écrire des histoires ou de compléter des phrases. Dans un tiers des cas, lorsqu’on leur a demandé de décrire une «femme anglaise», les logiciels ont présenté le personnage comme une prostituée, un mannequin ou une serveuse.
Les Préjugés Sexistes dans les IA Génératives
Ces biais sexistes émergent car les IA sont entraînées à partir de vastes quantités de données disponibles en ligne, qui reflètent les préjugés et stéréotypes de nos sociétés. Une étude du PNUD de 2023 indique que des préjugés sexistes sont encore présents chez près de 9 personnes sur 10.
Le manque de diversité dans le secteur de l’IA, où 70% des emplois sont occupés par des hommes, contribue également à ces préjugés. Léa El Samarji, docteure en cybersécurité, a constaté cette disparité dès ses études en France.
L’Expérience de Léa El Samarji dans un Monde Masculin
Malgré sa réussite professionnelle, Léa El Samarji a dû faire face à des défis dans des équipes très masculines. Son expérience l’a poussée à devenir ambassadrice France pour l’association Women in AI, qui promeut la présence des femmes dans le secteur de l’intelligence artificielle.
Corriger les Biais : une Tâche Difficile
Les éditeurs de logiciels d’IA générative ont mis en place des filtres et des mesures correctives pour limiter le sexisme de leurs robots en ligne. Cependant, ces efforts ne sont pas toujours couronnés de succès, comme l’a montré Google avec son intelligence artificielle, Gemini, qui a généré des images de femmes asiatiques et d’hommes noirs en uniforme de la Wehrmacht quand on lui demandait de représenter des soldats nazis des années 1940.