On présente généralement l’Intelligence Artificielle (IA), composée d’algorithmes et de données, comme une technologie plus objective et impartiale que l’homme. Cette idée reçue est pourtant trompeuse: loin d’être neutre, l’IA est imprégnée de biais, rendant leur élimination aussi ardue qu’indispensable.
L’Impact des Biais en IA sur la Société
Les biais en IA ont des répercussions bien réelles sur notre quotidien, impactant notamment le processus de recrutement, comme l’atteste l’affaire Amazon en 2014. Le géant du e-commerce avait mis au point une IA pour évaluer les candidats en attribuant une note sur 5 basée sur la qualité du profil afin de faciliter le processus de recrutement interne. Problème? L’IA s’est révélée être discriminante envers les candidatures féminines, biaisant ainsi la sélection des candidats. L’origine de cette dérive provenait des bases de données utilisées pour entraîner l’IA, constituées de profils d’employés recrutés au cours des 10 dernières années, majoritairement des hommes (Les Echos, 2018).
Dans le domaine de la justice pénale et de la surveillance policière, les outils de police prédictive basés sur l’IA identifient les zones où la criminalité est la plus susceptible de survenir et à évaluer la probabilité qu’un individu commette un crime. Là encore, les algorithmes sont exposés à des biais en s’appuyant sur des bases de données historiques souvent discriminatoires ou non représentatives. Le risque? Compromettre l’impartialité des décisions automatisés et pepétuer les schémas de profilage racial et de ciblage dans les communautés minoritaires (IA School, 2023).
Malheureusement, ces dysfonctionnements ne sont pas des cas isolés, mais plutôt le reflet d’un problème bien plus profond : les biais sont ancrés dans les données et les algorithmes eux-mêmes.
Comprendre la Source des Biais en IA: Un Frein à L’Impartialité
Comme ces exemples en témoignent, garantir une IA sans biais est un idéal plus difficile à atteindre qu’il n’y paraît. Si la source de l’IA biaisée est souvent attribuée à des problèmes techniques, des recherches réalisées par l’Institut National des Normes et de la Technologie (NIST de son nom originel) révèlent que ces explications ne sont que la surface visible de l’iceberg. En réalité, ce sont les biais humains et systémiques, souvent négligés, qui compliquent le défi de rendre l’IA véritablement impartiale (NIST, 2022).
Le biais humain, plus communément appelé biais cognitif, désigne les erreurs systématiques qui affectent la sélection, l’interprétation, et l’utilisation des informations, dû à notre capacité limitée de traiter de manière entièrement objective ces dernières. Ainsi, l’IA agit comme un miroir amplificateur de nos préjugés et stéréotypes : plus elle est nourrie de données biaisées, plus elle les ancre et en prolonge les effets.
Ce phénomène fonctionne main dans la main avec le biais systémique, un ensemble de pratique et de dynamiques institutionnelles qui inconsciemment favorise certains groupes sociaux au détriment d’autres selon le genre, l’origine éthnique, ou le statut socio-économique. De la sorte, l’IA renforce les schémas de marginalisation au lieu de les corriger.
Il semble donc que rectifier ces biais va bien au-delà de simples ajustements techniques, mais nécessite une véritable refonte en profondeur des données, des modèles, et des processus de décision.
Vers une IA Plus Équitable
Face à la quête d’une IA plus juste et équitable, plusieurs pistes d’amélioration voient le jour. Parmi elles, l’initiative menée par l’organisation Partnerships on AI, qui a élaboré des lignes directrices pour ses développeurs visant à les guider dans la collecte et l’utilisation des bases de données plus représentatives. L’objectif ? Intégrer une plus grande diversité de profils et d’expériences pour assurer des modèles plus inclusifs (Lacroux & Martin-Lacroux, 2021).
Plus de diversité dans les bases de données enregistrées, mais également au sein des équipes technologiques serait aussi un facteur clé pour limiter les biais selon une étude réalisée par PWC et le World Economic Forum. En effet, les biais dans l’IA ne se limitent pas qu’aux données, ils sont aussi le reflet des biais inconscients de ceux qui conçoivent ces systèmes. En favorisant une plus grande mixité de genres, d’origines culturelles et de parcours professionnels, il serait plus facile d’anticiper les discriminations potentielles et de les éviter (World Economic Forum, 2024).
Un autre levier d’action est la transparence des algorithmes, qui, pour le moment, fonctionnent comme des “boîtes noires”, compliquant l’identification et la suppression des biais. Pour remédier à cela, la mise en place d’IA explicables (XAI) vise à faciliter l’interprétabilité des modèles et à encourager une approche plus responsable dans leur conception (IBM Data and AI Team, 2023).
Ainsi, loin d’être une entité impartiale, l’IA est un miroir des limites humaines et sociétales. En reconnaissant les limites de cet outil, cependant, il est possible de construire un système plus éthique et équitable. Cela implique une collecte de données plus représentative, des équipes de développement diversifiées et une transparence accrue des algorithmes.
IA School. (2023, Juin 8). L’IA dans la police : Usages, avantages et limites. IA School. https://www.intelligence-artificielle-school.com/alternance-et-entreprises/secteur-d-activite/intelligence-artificielle-dans-la-police/
IBM Data and AI Team. (2023, Octobre 16). Mise en lumière des biais de l’IA avec des exemples concrets. IBM. https://www.ibm.com/fr-fr/think/topics/shedding-light-on-ai-bias-with-real-world-examples
Lacroux, A., & Martin-Lacroux, C. (2021, April 21). L’intelligence artificielle au service de la lutte contre les discriminations dans le recrutement : Nouvelles promesses et nouveaux risques. SHS Cairn.info. https://shs.cairn.info/revue-management-et-avenir-2021-2-page-121?lang=en
Les Echos. (2018, Octobre 13). Quand le logiciel de recrutement d’amazon discrimine Les Femmes. https://www.lesechos.fr/industrie-services/conso-distribution/quand-le-logiciel-de-recrutement-damazon-discrimine-les-femmes-141753
NIST. (2022), Towards a Standard for Identifying and Managing Bias in Artificial Intelligence, Special Publication (NIST SP), National Institute of Standards and Technology, Gaithersburg, MD, [online], https://doi.org/10.6028/NIST.SP.1270, https://tsapps.nist.gov/publication/get_pdf.cfm?pub_id=934464 (Accessed February 3, 2025)World Economic Forum. (2024, November). Leveraging Generative AI for Job Augmentation and Workforce Productivity: Scenarios, Case Studies and a Framework for Action. World Economic Forum.