L’IA peut-elle être responsable de discrimination ?

1
L'IA peut-elle être responsable de discrimination ?
L'IA peut-elle être responsable de discrimination ?

Bienvenue dans le deuxième volet de notre saga en trois épisodes : “L’IA peut-elle être responsable ?”. Aujourd’hui concentrons-nous sur la discrimination amenée par cette dernière.
L’IA, seulement deux lettres et pourtant de multiples interrogations à tout-va. Vous devez avoir déjà une idée plus ou moins précise de ce qu’est l’IA. Ce que nous vous proposons maintenant, c’est de mettre en avant les limites de l’IA face à la morale.




1/ Expliquer les modèles (article publié le 31 mars 2022)

2/ Diminuer la discrimination

3/ Trouver des solutions (article publié le 17 mai 2022)




Après avoir abordé l’explicabilité des modèles qui n’a désormais plus de secrets pour vous, nous voilà prêts à aborder un sujet encore un peu tabou : la discrimination dans les modèles de Machine Learning. Plus précisément, les algorithmes peuvent être discriminatoires  👀.

Pour rentrer dans le vif du sujet, quelques exemples.

⚠️Les femmes de couleur non-blanche ont davantage de difficultés à être reconnues par leur téléphone qu’un homme blanc (l’algorithme étant entraîné essentiellement sur des images d’homme blanc).

⚠️Les lycéens de lycée mal classés ont plus de mal à intégrer des études supérieures réputées, même si leurs notes sont excellentes voire meilleures (le lycée d’origine est compté comme un critère à part entière au même titre que les notes).

⚠️Les femmes utilisant la reconnaissance vocale pour écrire des messages auront plus de mal à faire reconnaître leur voix que des hommes (les modèles étant essentiellement entraînés sur des voix masculines).

Et malheureusement, ces 3 exemples sociétaux ont des corollaires dans le domaine de la santé, de la banque, de l’achat de bien et services, de la préparation de nos déplacements, ou encore du juridique, où ces discriminations existent également.

Mais si nous faisons ce constat, c’est avant tout pour chercher des solutions.

✔️ Des plateformes comme le réseau social Twitter a lancé un challenge pour réduire la discrimination de ses algorithmes.
Le 30 juillet 2021, Twitter a appelé le plus grand nombre à déceler les discriminations raciales, sexistes et basées sur les opinions. On se souvient en effet de la polémique qui avait surgi en 2020 montrant que l’algorithme de Twitter mettait toujours en avant une personne blanche devant une personne noire. (https://news.konbini.com/societe/twitter-fait-polemique-a-cause-de-son-algorithme-photo-raciste/)

✔️ Nous pouvons lister les raisons pour lesquelles les algorithmes sont discriminatoires :

  • Ils sont pensés et conçus par des humains qui ont chacun leur subjectivité
  • Les modèles sont entraînés sur des images où certaines populations peuvent être sous-représentées
  • Ils sont parfois volontairement discriminatoires comme celui de Tinder qui calcule un score de désirabilité basé sur des critères jugés sexistes et discriminatoires

✔️ Nous pouvons sensibiliser à la discrimination des algorithmes

  • Prendre conscience de leur potentiel de discrimination et ainsi avoir du recul quant à leurs résultats
  • Prendre acte des recommandations de la CNIL, du Défenseur des droits, de l’UE ou encore de l’OCDE
  • Communiquer au plus grand nombre comme ce que nous tentons de faire avec cet article 🌱

D’ailleurs, pour donner de l’écho à cette initiative…

📢 C’est à vous !


Répondez ci-dessus !

🔗 Nous partagerons le fruit de vos réflexions dans le prochain et dernier épisode de cette saga ! 🔗




INVYO

Actionnez vos données !

 

1 COMMENT

LEAVE A REPLY

Please enter your comment!
Please enter your name here