Parfois considérée comme un sujet philosophique ou abstrait, l’éthique nous apparaît plus concrète que jamais avec la popularisation de l’intelligence artificielle. Dans un monde où l’IA fait de nos décisions des mécaniques systématiques : il n’y a plus d’excuses. Les lignes de codes semblent s’adresser à nous : quelle décision dois-je prendre ? Et ces décisions ont une portée éthique. Découvrez notre livre blanc “Les 5 piliers de l’éthique de l’IA”, un ouvrage qui témoigne la possibilité d’une IA qui intègre des aspects technologiques, sociaux, éthiques et écologiques. Ce document a pour but de vulgariser l’éthique dans l’IA, dont l’utilisation doit être possible pour tous et au service de la planète.
Intelligence artificielle et explicabilité
Notre série d’interviews sur l’éthique de l’IA débute avec Killian Vermersch, CTO chez Golem.ai, qui aborde différents sujets autour de l’explicabilité de l’IA. À travers cet échange, notre expert donne la définition de ce qu’est une solution d’IA explicable. Dans le cadre d’un projet d’intelligence artificielle, l’explicabilité se doit d’être présente à toutes les étapes du traitement d’une information, auquel cas, cela biaise l’ensemble du processus.
“En somme, une solution d’IA explicable c’est permettre aux concepteurs comme aux utilisateurs d’utiliser une solution totalement transparente en termes de décision.”
Killian Vermersch CTO & Co-fondateur chez Golem.ai
Il évoque l’importance d’utiliser une solution d’IA explicable aussi bien pour les utilisateurs que pour les clients. Cette dimension est primordiale dans certains secteurs d’activités comme la santé, le droit ou la défense. Les solutions d’IA ayant une approche symbolique sont nativement explicables, à l’inverse des solutions ayant une approche connexionniste, qui ne sont pas totalement transparentes. Chez Golem.ai, on parle “d’explicability by design”.
Intelligence artificielle et protection des données
La suite de notre série IA éthique se poursuit avec Marie-Justine Chassagne, Lead Business Analyst et DPO chez Golem.ai. Spécialiste de la protection des données dans l’IA, c’est un sujet qui soulève de nombreuses problématiques. Protéger les données clients représente un enjeu législatif et de confiance pour les entreprises. Les secteurs de la défense, de la banque ou de l’assurance sont sensiblement concernés par la confidentialité des données.
Qu’est ce qu’une IA respectueuse des données ? Chez Golem.ai, nous avons fait le choix d’une IA transparente, qui fonctionne sans entraînement, avec très peu de données et configurable facilement.
“Une IA respectueuse des données doit permettre deux choses : être explicable dans chacune de ses décisions, et frugale en fonctionnant avec peu voire pas de données personnelles.”
Marie-Justine Chassagne
Étant déléguée à la protection des données (DPO) chez Golem.ai, elle a un rôle partagé entre une dimension technique et juridique. C’est un métier qui demande d’avoir une parfaite connaissance des projets clients, de leurs besoins et une appétence pour faire de la veille sur les sujets RGPD.
Intelligence artificielle : savoir expliquer les biais
On continue avec les biais liée à l’utilisation de l’IA, un sujet traité par Jean-Denis Garo, Head of marketing chez Golem.ai. Il existe différents biais de l’IA qui peuvent être cognitifs, de discrimination ou de raisonnement par exemple. Généralement, les biais sont du fait de l’humain ou de la composition des données utilisées. L’IA symbolique, contrairement à l’IA connexionniste, permet d’identifier les biais rencontrés et de les corriger facilement.
“Si les biais cognitifs ne sont généralement pas conscients, la source principale de biais reste donc l’humain, et ce quelque soit le type d’IA utilisée (symbolique ou connexioniste).”
Jean-Denis Garo
Il faut aussi insister sur les dangers liés aux biais d’information, qui sont créés par les algorithmes de personnalisation et la publicité ciblée sur les médias sociaux. L’effet « boîte noire » et le manque de transparence de l’IA connexionniste favorisent la propagation et la multiplication de ces biais. Au contraire, l’IA symbolique qui ne s’appuie pas sur une approche statistique est une technologie transparente, dont la compréhension, le fonctionnement et les résultats sont explicables.
Frugalité, le chemin vers une green IA
Dans cette interview, Ludovic Fleury, VP Engineering chez Golem.ai, parcourt le sujet de la frugalité de l’IA. Les nouvelles technologies (intelligence artificielle, cryptomonnaie, NFT, IoT, …) ont un coût énergétique conséquent qui entraîne une multiplication des problématiques liés à la consommation d’énergie. L’université du Massachusetts estime que les entraînements lourds des algorithmes connexionnistes consomment près de 300 tonnes de CO2 pour être opérationnels, sans aucun bénéfice direct. Une réalité qui n’est pas du tout en adéquation avec la responsabilité environnementale que doivent adopter les entreprises de nos jours.
“De plus, la frugalité est un terme préférable à celui de sobriété car il implique non pas de réduire ou d’arrêter de produire mais bien de repenser nos modèles techniques afin d’en limiter les impacts négatifs sur l’environnement tout en assurant la continuité de performance de ces derniers.”
Ludovic Fleury
Les DSI sont des acteurs importants en termes de changement et d’innovation dans les entreprises. En ce sens, le choix d’une IA frugale, performante sans entrainements, et explicable permet de dégager un coût énergétique très faible. Aujourd’hui, l’innovation est plus que jamais synonyme de responsabilité.
Intelligence artificielle et souveraineté
Dans le domaine de la tech, la souveraineté est un sujet d’actualité récurrent. Une problématique qui se pose aussi naturellement pour l’intelligence artificielle, un sujet décortiqué par Guillaume Navarre, CCO et cofondateur chez Golem.ai. La souveraineté de l’IA désigne le fait d’avoir une maîtrise totale en matière de protection et d’utilisation de ses données. De plus, la crise sanitaire du COVID-19 a accentué l’importance de la souveraineté des états dans le secteur technologique et le numérique.
“En sommes, c’est le fait de mettre à disposition des utilisateurs, des outils logiciels ou informatiques qui ne dépendent pas de façon critique d’acteurs tiers, afin d’éviter des conflits de loyauté.”
Guillaume Navarre
Pour protéger l’indépendance technologique, la Commission Européenne a récemment mis en place un projet de réglementation, afin de favoriser une IA de confiance et d’excellence, essentielle dans des secteurs comme la santé, le transport ou l’énergie. Les entreprises doivent orienter le choix de leur IA, en fonction de critères techniques et éthiques qui doivent permettre l’indépendance, la confidentialité et la protection des données.
Découvrez tous les sujets de notre série sur l’IA Éthique :
- Intelligence artificielle et explicabilité
- Intelligence artificielle : savoir expliquer les biais
- Intelligence artificielle et protection des données
- Intelligence artificielle et souveraineté
- Frugalité, le chemin vers une green IA
N’hésitez pas à contacter nos équipes si vous avez la moindre question, elles se feront un plaisir de vous répondre !