Un biais algorithmique se produit quand un système d'IA produit des résultats systematiquement injustes envers certains groupes. Ces biais ne sont pas intentionnels — ils sont le reflet des prejudices présents dans les données d'entraînement, les choix de conception ou les métriques d'évaluation.
Par exemple, en 2018, Amazon a découvert que son système de recrutement IA penalisait les CV contenant le mot "femme" (comme "équipe de football feminin") parce qu'il avait été entraîné sur 10 ans de CV, majoritairement masculins. Le système avait appris que les candidats hommes étaient plus souvent embauches.
Si les données d'entraînement ne sont pas representatives de la diversité de la population, le modèle reproduira les déséquilibres existants. Un système de reconnaissance faciale entraîné principalement sur des visages caucasiens performera moins bien sur d'autres ethnies.
Les choix des concepteurs influencent les résultats : quelles données collecter, quelles métriques optimiser, quelles populations tester. Si l'équipe de développement manque de diversité, certains biais passeront inapercus.
Les systèmes d'IA peuvent amplifier les biais existants dans une boucle de retroaction. Un algorithme de justice prédictive qui ciblé davantage un quartier entrainera plus d'arrestations dans ce quartier, "confirmant" le biais initial.
Une étude du NIST (2024) a montre que les systèmes de reconnaissance faciale ont un taux d'erreur 10 à 100 fois plus élève pour les personnes a la peau foncee que pour les personnes a la peau claire.
La prévention passe par : la diversification des données d'entraînement, les audits réguliers des modèles, la diversité dans les équipes de développement, les tests sur des sous-groupes de population, et la mise en place de mecanismes de recours pour les personnes affectees.
Les biais algorithmiques sont un problème humain, pas technologique. Ils refletent les prejudices de notre société. La technologie seule ne peut pas les résoudre — il faut aussi un changement organisationnel et culturel.
Les Sources de Biais Algorithmiques
Biais dans les données
Données non representatives
Biais de conception
Choix des développeurs
Biais de feedback
Boucle d'amplification
Biais d'évaluation
Metriques inadaptees
4 questions — 70% pour valider ce chapitre