Lutter contre les biais en IA, un enjeu éthique et technique

L’intelligence artificielle (IA) joue un rôle de plus en plus important dans notre quotidien, avec des applications variées, telles que les assistants virtuels, les systèmes de recommandation et les systèmes automatisés de prise de décision. Cependant, ces systèmes ne sont pas aussi performants que les données sur lesquelles ils s’appuient. Si ces données sont biaisées, l’IA peut également l’être, entraînant des résultats discriminatoires et injustes. Dans cet article, nous explorerons l’importance de lutter contre les biais de l’IA et comment Golem.ai aborde ce problème avec son IA symbolique, transparente et frugale.

Biais en IA… De quoi parlons-nous ?

Les données de formation sont au cœur de l’IA et du machine learning. Il s’agit d’ailleurs des données nécessaires à l’entraînement de l’algorithme de machine learning. En effet, une grande partie de la performance des algorithmes repose sur la qualité et la représentativité des données utilisées pour les entraîner. Cependant, des biais dans ces ensembles de données peuvent entraîner des résultats aux conséquences imprévues et considérables. Il est donc crucial d’identifier et de corriger ces biais pour garantir des résultats précis et équitables.

Les biais dans les données de formation peuvent avoir des effets négatifs sur les performances des algorithmes d’IA, ainsi que sur les groupes de personnes concernés. Les biais peuvent se manifester de différentes manières, notamment par une sous-représentation ou une surreprésentation de certaines caractéristiques, un biais de sélection, ou encore un biais de mesure.

Quels sont les types de biais ? 

Le biais algorithmique est un phénomène complexe qui peut se manifester de différentes manières, et aux conséquences variées sur la société. Parmi les types de biais les plus courants, on peut citer:

  • Le biais de représentativité : il se produit lorsque les données de formation ne reflètent pas correctement la diversité et la variété des situations réelles. Par exemple, si un algorithme de reconnaissance faciale est entraîné principalement sur des images de personnes d’un certain groupe ethnique, il risque de moins bien reconnaître les visages d’autres groupes ethniques.
  • Le biais de confirmation : il conduit l’algorithme à rechercher des modèles qui correspondent à des notions qui lui sont connues, sans prendre en compte les informations contradictoires émanant d’autres modèles. Ce type de biais peut renforcer les stéréotypes existants et entraîner des décisions discriminatoires. En comparaison, c’est un biais cognitif existant chez l’humain, qui confirmera une information correspondant d’abord à sa manière de penser, plutôt qu’une autre. 
  • Le biais intersectionnel : il se produit lorsque les algorithmes ne parviennent pas à reconnaître les multiples aspects de l’identité d’un individu, tels que le genre, l’origine ethnique, l’orientation sexuelle, et la classe sociale. Les systèmes d’IA qui ne tiennent pas compte de ces intersections sont susceptibles de perpétuer des discriminations envers les personnes appartenant à plusieurs groupes marginalisés simultanément.

Les conséquences de ces biais de l’IA peuvent être graves, notamment dans les domaines de la santé, de l’emploi, du crédit et de la justice. Par exemple, un algorithme utilisé pour déterminer les traitements médicaux ou les interventions chirurgicales peut être biaisé envers certains groupes de patients en raison de données de formation inadéquates. De même, un système automatisé de recrutement peut discriminer les candidats appartenant à certains groupes ethniques ou de genre en raison de biais dans les données historiques sur lesquelles il se base.

Comment lutter contre ces biais ?

Pour assurer l’équité et l’impartialité des systèmes d’IA, il est essentiel de prendre des mesures pour identifier, comprendre et atténuer les biais dans les ensembles de données et les algorithmes. Voici quelques étapes clés à suivre (Gebru et al. – 2018 et Mitchell et al. – 2021) :

  • Collecter des données représentatives : il est crucial de veiller à ce que les données de formation reflètent la diversité et la complexité du monde réel, en prenant en compte les différents groupes sociaux, les contextes culturels et les situations.
  • Auditer les algorithmes : une fois les systèmes d’IA développés, il est important de les évaluer régulièrement pour détecter et corriger les biais potentiels. Des outils tels que lAI Fairness 360 d’IBM Research peuvent aider à identifier et à atténuer les biais dans les algorithmes. Des sociétés sont par ailleurs spécialisées dans ce domaine comme Numalis, dont l’objectif est d’aller au-delà des méthodes statistiques en travaillant sur les formes d’apprentissage, ou sur l’architecture et la performance des réseaux de neurones.
  • Impliquer les parties prenantes : les concepteurs et les développeurs d’IA doivent collaborer avec les utilisateurs, les régulateurs, les experts en éthique et les communautés concernées pour s’assurer que les systèmes d’IA répondent aux besoins et aux attentes de toutes les parties prenantes.
  • Éduquer et sensibiliser : il est important de former les professionnels de l’IA aux questions d’éthique, de biais et de diversité, et de sensibiliser le grand public aux enjeux et aux défis liés à l’équité et à l’inclusion dans le domaine de l’IA. L’IA est un monde à part, avec une grande technicité et des codes incompréhensibles pour le public mais aussi pour la plupart des décideurs et politiques. Un travail essentiel à faire est de créer un pont de compréhension où les décideurs et les parties prenantes peuvent échanger. En rendant l’IA accessible et compréhensible, par la multiplication des supports tels que les Livres Blancs/plateformes web transversales visant à présenter les secteurs de l’IA au grand public. Car l’adoption d’une technologie passe toujours par la confiance. Et on ne peut faire confiance qu’à ce que l’on comprend.

Comment bien choisir sa technologie d’IA pour éviter des biais ?

La multiplicité des usages de l’intelligence artificielle dans notre quotidien correspond également à multiplicité des types de technologies existantes. Qu’il s’agisse d’une IA basée sur des règles (systèmes experts) ou d’une IA basée sur un entraînement data (machine learning), les performances et l’évitement de certains biais diffèrent. Chez Golem.ai, nous mettons un point d’honneur à la création d’une IA éthique et équitable, et nous avons développé une solution d’intelligence artificielle qui répond à ces enjeux. Contrairement aux approches traditionnelles basées sur le machine learning, notre IA symbolique n’a pas besoin d’être entraînée sur des ensembles de données potentiellement biaisés. Elle est ainsi moins susceptible de perpétuer les discriminations et les inégalités existantes que génère une IA utilisant le machine learning.

De plus, notre IA est transparente, ce qui permet aux utilisateurs de comprendre et d’expliquer les processus de prise de décision de l’algorithme. Cette transparence est essentielle pour établir la confiance des utilisateurs et des parties prenantes, et pour assurer que les systèmes d’IA sont responsables et conformes aux principes éthiques et aux réglementations en vigueur.

Enfin, notre solution d’IA est frugale, ce qui signifie qu’elle est conçue pour utiliser moins de ressources informatiques et énergétiques. Cette approche frugale contribue à réduire l’empreinte écologique de l’IA et à rendre la technologie plus accessible aux organisations de toutes tailles. 

Qu’en retenir ?

Les biais de l’IA ont des impacts sociétaux considérables, influençant la manière dont nous prenons des décisions et interagissons avec la technologie. Une IA biaisée peut renforcer les inégalités existantes, entraînant des discriminations et des préjudices pour certaines populations. En identifiant et en comprenant les différentes sources de biais, nous pouvons œuvrer pour développer des systèmes d’intelligence artificielle moins biaisés. Il est crucial que les chercheurs, les développeurs, les entreprises et les législateurs collaborent pour établir des cadres éthiques et des réglementations qui suppriment les biais et garantissent que l’IA profite à tous les membres de la société.