Les risques de l’IA pour l’égalité entre les femmes et les hommes

  • Auteur/autrice de la publication :
  • Post category:Veille RSE

Recevez pendant 1 mois 
ATHEME Hebdo, le support de veille 
pour les organismes de formation et les formateurs

Les systèmes d’intelligence artificielle [SIA], qui pourraient être perçus comme neutres, peuvent en réalité renforcer et amplifier les inégalités entre les femmes et les hommes. En effet, les données utilisées pour leur entraînement sont souvent biaisées et traduisent fréquemment les déséquilibres sociaux déjà existants. Plutôt que de contribuer à la réduction de ces disparités, ces algorithmes risquent de les perpétuer. Ce phénomène ne se limite pas aux questions de genre, mais peut également s’étendre à d’autres groupes, exacerbant ainsi diverses formes d’inégalités

 La data, la matière première de l’IA
Les données constituent la matière première de l’IA. Au coeur des opérations des SIA, elles en sont le carburant. Une donnée est une représentation codée d’un événement ou d’une transaction, sous forme de chiffres, lettres, images ou sons. Mais les données ne sont jamais totalement objectives ou « brutes », car elles reflètent les biais, les intentions et les conditions du contexte dans lequel elles ont été créées.

En raison de leur mode de fonctionnement, les SIA peuvent  amplifier des inégalités entre les femmes et les hommes. Cette dynamique, nommée « boucle de rétroaction », désigne le processus par lequel un SIA, en s’alimentant de ses propres expériences, produit des résultats allant dans une direction constamment renforcée.
Si ces systèmes sont entraînés sur des données biaisées, ils peuvent continuer à reproduire ces biais, voire les amplifier, car chaque nouvelle sortie renforce les erreurs ou les inégalités existantes, aggravant ainsi les disparités initiales.

 Des exemples d’inégalités femme/homme 
Comme l’explique la  publication du Conseil du statut de la femme (CSF) du Québec, plusieurs cas concrets illustrent ces inégalités :
– Marché de l’emploi : Une enquête révèle que le système automatisé de diffusion d’offres d’emploi de Facebook présente des biais dans la répartition des annonces en fonction du genre, bien qu’aucun critère explicite lié au sexe ne soit utilisé. L’étude montre que certaines offres, comme celles pour des postes de camionneur sont massivement envoyées aux hommes alors que dans l’éducation de la petite enfance, elles sont transmises aux femmes. Par exemple, une annonce pour un poste de camionneur a été envoyée à 4 864 hommes contre seulement 386 femmes, ce qui nuit à la mixité des emplois.
– Dans le domaine de la santé : La recherche clinique a longtemps été centrée sur des sujets masculins, négligeant les spécificités biologiques des femmes. Bien que des progrès aient été réalisés, les femmes demeurent sous-représentées dans les études sur des maladies telles que certaines formes de cancer, l’insuffisance cardiaque, la dépression, la douleur ou encore le sida. Cette situation crée des lacunes dans la compréhension des symptômes et des traitements spécifiques aux femmes, compromettant ainsi leur prise en charge médicale. Des expertes québécoises soulignent également que les systèmes d’IA utilisés pour détecter des cancers de la peau risquent de produire des erreurs pour les femmes à la peau foncée, en raison d’un manque de données les concernant dans les phases d’entraînement.
– Les outils d’assistance vocale: Siri et Alexa rencontrent davantage de difficultés à comprendre les femmes, en raison de leur sous-représentation dans les données d’entraînement, en particulier en français, où les voix masculines prédominent dans les sources audio. Les systèmes de reconnaissance faciale affichent des taux d’erreur importants pour les femmes à la peau foncée, atteignant jusqu’à 34,7 %, alors que ces erreurs sont presque inexistantes pour les hommes à la peau claire. Cette disparité découle de la surreprésentation d’images d’hommes blancs dans les bases de données utilisées pour entraîner ces systèmes. Depuis, des améliorations ont été apportées, notamment chez IBM.

De plus, les processus décisionnels des SIA ne sont pas toujours clairs, il devient difficile pour les experts de comprendre comment les décisions sont prises et d’identifier les biais qui pourraient influencer ces décisions. Ce manque de transparence complique ainsi la tâche de détecter et de corriger ces biais, ce qui peut conduire à leur perpétuation, voire à leur amplification.

 Des solutions à mettre en oeuvre

« [P]lus les « fabricants de l’IA » seront diversifiés, sur le plan de l’origine ethnique, culturelle, du niveau ou type d’étude, plus de points de vue différents pourront être pris en compte, ce qui favorisera la création de bases d’apprentissage plus représentatives de la société, et permettra ainsi de mieux garantir la bonne robustesse et fiabilité des algorithmes d’IA » (Helme-Guizon, Ternon et Sèdes, 2021). (extrait de l’avis du CSF).

La conception et l’utilisation des SIA ne doivent pas se limiter à des compétences techniques ou informatiques. Ces systèmes ont un impact sur des aspects éthiques et sociaux importants, et pour les traiter correctement, il est essentiel d’intégrer des perspectives issues des sciences humaines et sociales. Cela permet de mieux comprendre et anticiper les conséquences des SIA sur la société, en tenant compte des questions d’équité, d’éthique et de justice sociale.

La sous-représentation des femmes dans le secteur de l’IA (20%) est en partie liée au faible nombre de filles qui choisissent des études dans ce domaine, une tendance observée au Québec comme ailleurs dans le monde. Face à ce constat, le gouvernement du Québec s’engage activement à encourager les filles et les femmes à intégrer des formations dans le domaine de l’IA, en déployant de nombreuses initiatives pour soutenir cette ambition.

L’interdisciplinarité et la diversité des équipes sont des solutions à portée de main pour diminuer le risque d’inégalité.

Depuis le milieu des années 2010, des cadres éthiques ont émergé pour orienter le développement des SIA, avec des initiatives provenant de gouvernements, entreprises et associations.
Le Québec a adhéré à trois de ces cadres, dont la
Déclaration de Montréal, qui promeut des principes d’équité et d’inclusion de la diversité, la Recommandation de l’OCDE et celle de l’UNESCO appellent à des actions pour réduire les inégalités de genre et promouvoir une IA plus inclusive.

Malgré ces efforts, ces cadres restent non contraignants, et des spécialistes demandent un encadrement législatif plus strict pour garantir le respect des droits et réduire les biais potentiels des SIA.

Sources:
https://csf.gouv.qc.ca/wp-content/uploads/Avis_intelligence_artificielle.pdf

 

En Europe, la loi sur l’IA, la première loi complète au monde sur l’intelligence artificielle, est entrée en vigueur le 01/08/2024.

Désormais, citoyens et entreprises peuvent exploiter en toute sécurité les opportunités d’une IA fiable et respectueuse de règles précises :

🔴 Les risques inacceptables de l’IA, tels que le scoring social, sont interdits.
🟠 L’IA à haut risque, y compris le recrutement et les applications dans les dispositifs médicaux, doit répondre à des exigences strictes.
🟡 L’IA à risque limité, comme les chatbots, doit informer les utilisateurs qu’ils interagissent avec l’IA.
🟢 L’IA à risque minimal, par exemple les filtres anti-spam, suit les règles existantes sans obligations supplémentaires.

Prochaines étapes

La loi sur l’IA, entrée en vigueur le 1er août, deviendra entièrement applicable dans deux ans, à quelques exceptions près. Les interdictions seront mises en œuvre après six mois, les règles de gouvernance et les obligations concernant les modèles d’IA à usage général entreront en vigueur après 12 mois, tandis que les systèmes d’IA intégrés dans des produits réglementés devront se conformer aux règles après 36 mois.

Pour faciliter la transition vers le nouveau cadre réglementaire, la Commission a lancé le Pacte sur l’IA , une initiative volontaire qui vise à soutenir la future mise en œuvre et invite les développeurs d’IA d’Europe et d’ailleurs à se conformer en amont aux principales obligations de la loi sur l’IA.

Sources :  https://digital-strategy.ec.europa.eu/en/policies/regulatory-framework-ai