L’impact de l’Intelligence Artificielle (IA) sur notre perception du genre est devenu un sujet de préoccupation majeure, comme le souligne une étude récente de l’UNESCO

Biais sexistes dans les modèles de langage

Étude de l’UNESCO

Cette étude révèle que des modèles de langage largement utilisés, tels que GPT-2, GPT-3.5 d’OpenAI et Llama 2 de Meta. Manifestent des préjugés sexistes marqués, influençant ainsi la manière dont les genres sont représentés et perçus.

Les modèles de langage ont tendance à associer les noms féminins à des rôles traditionnellement domestiques et moins valorisés, tels que « maison », « famille » ou « enfants ». Tandis que les noms masculins sont plus fréquemment liés à des termes comme « commerce », « salaire » ou « carrière ». 

Cette différenciation contribue à renforcer les stéréotypes de genre déjà présents dans la société​.

Représentations des individus LGBTQ+

Traitement des individus LGBTQ+ par les modèles de langage

L’étude a aussi mis en lumière le traitement des individus LGBTQ+ par ces modèles. Qui génèrent souvent des représentations négatives ou stéréotypées, illustrant ainsi une lacune importante dans la programmation éthique de ces technologies​.

Face à ces enjeux, l’UNESCO appelle à des interventions à plusieurs niveaux pour corriger ces biais. Elle recommande notamment l’élaboration de politiques garantissant la transparence et l’équité des algorithmes et des ensembles de données utilisés en IA. 

De plus, l’inclusion de groupes marginalisés dans le développement de l’IA et la prise en compte des facteurs intersectionnels sont jugées cruciales pour réduire les biais et promouvoir l’inclusivité​.

Conséquences des biais de l’IA

Impact sur divers domaines

Les préjugés de l’IA ne sont pas seulement problématiques pour les individus affectés mais peuvent avoir des répercussions plus larges. Influençant les décisions en matière de recrutement, les évaluations de crédit, et même les diagnostics médicaux et psychiatriques. Ce qui souligne l’importance d’une réglementation et d’une surveillance rigoureuses de ces technologies​.

Cette étude de l’UNESCO met en lumière la nécessité urgente de repenser la manière dont les outils d’IA sont conçus et utilisés, afin de garantir une technologie plus juste et plus représentative de la diversité humaine.

Lire aussi: IA dans l’éducation – L’Unesco demande une reglementation