Une étude de l’Unesco alerte sur la présence de préjugés sexistes au sein des grands modèles de langage d’OpenAI et de Meta, à la veille de la journée internationale des droits des femmes.
Les modèles GPT 2 et GPT 3.5 d’OpenAI, ainsi que Llama 2 de Meta, démontrent « sans équivoque » des préjugés à l’égard des femmes, selon l’instance onusienne. Ces biais se manifestent par une association plus fréquente des noms féminins avec des termes tels que « maison », « famille » ou « enfants », tandis que les noms masculins sont davantage liés aux mots « commerce », « salaire » ou « carrière ».
Des stéréotypes renforcés dans les récits générés
L’étude, réalisée d’août 2023 à mars 2024, révèle que les histoires produites par ces modèles de langage concernant des personnes issues de cultures minoritaires ou des femmes sont souvent répétitives et stéréotypées. Par exemple, un homme anglais est fréquemment présenté comme un professeur, un chauffeur ou un employé de banque, tandis qu’une femme anglaise est décrite comme une prostituée, un mannequin ou une serveuse dans au moins 30 % des textes générés.
L’importance de promouvoir la diversité dans les équipes d’ingénierie
Leona Verdadero, spécialiste des politiques numériques et de la transformation numérique à l’Unesco, déplore le fait que ces entreprises « ne parviennent pas à représenter tous leurs utilisateurs ». L’Unesco préconise ainsi une représentation plus équilibrée des femmes dans les équipes d’ingénierie du secteur de l’intelligence artificielle, où elles ne représentent actuellement que 22 % des membres.