Les Modèles d’IA Discriminent les Locuteurs d’Ebonics, Selon une Étude

Une recherche menée par des scientifiques américains révèle un aspect alarmant des avancées récentes en intelligence artificielle : la tendance des modèles à évaluer négativement l’intelligence et l’employabilité des locuteurs d’Ebonics, un dialecte spécifique utilisé par les Afro-Américains, par rapport à ceux parlant l’anglais standard.

Impact des Modèles d’IA sur la Discrimination Linguistique

Les progrès technologiques suscitent des inquiétudes quant à l’intégration de préjugés raciaux dans des outils largement utilisés tels que ChatGPT d’OpenAI et Gemini de Google. Une étude du Allen Institute for Artificial Intelligence met en lumière les stéréotypes racistes présents dans ces grands modèles linguistiques, en particulier envers le dialecte Ebonics utilisé par les Afro-Américains. Les modèles ont tendance à associer des qualificatifs négatifs et à orienter ces locuteurs vers des emplois moins bien rémunérés, illustrant ainsi une discrimination linguistique préoccupante.

L’Importance de l’Ebonics et ses Conséquences

L’Ebonics, contraction de « ébène » et « phonics », présente des particularités linguistiques uniques telles que la suppression des consonnes finales des mots et l’emprunt de vocabulaire à des langues africaines. Les chercheurs mettent en garde contre l’impact potentiel de ces préjugés sur la communication en ligne, pouvant désavantager les locuteurs d’Ebonics dans des contextes professionnels. Cette discrimination linguistique peut même influencer des recommandations de peine de mort, soulignant un problème plus profond dans l’évaluation des individus en fonction de leur dialecte.

Appels à une Régulation Plus Stricte

Des experts, dont la chercheuse Timnit Gebru, appellent à une régulation plus poussée de l’utilisation des grands modèles linguistiques, mettant en lumière le risque de voir les préjugés intégrés dans ces technologies influencer de manière significative les décisions importantes dans la société. Timnit Gebru, militante pour la justice sociale dans le domaine de la technologie, a souligné la nécessité de surveiller de près l’impact social et éthique des systèmes d’IA, mettant en garde contre les risques liés aux biais et aux injustices persistants.


Derniers Articles

Ces articles pourraient vous plaire