Intelligence artificielle et explicabilité

Les sujets d’inclusion numérique, de confiance, de respect des libertés individuelles s’imposent à nos agendas citoyens, ils se traduisent chez Golem.ai par des actes concrets. Découvrez comment, entre les principes moraux, les lois, les questions environnementales, se manifeste l’éthique dans notre conduite quotidienne chez Golem.ai et celle de notre IA en particulier. Aujourd'hui, nous abordons l'explicabilité avec une interview de Killian Vermersch CTO chez Golem.ai.

 

1 – Qu’est-ce qu’une solution d’intelligence artificielle explicable ?

Avant tout, il est important de comprendre que l’explicabilité se doit d’être présente à toutes les étapes du traitement d’une information dans le cadre d’un projet d’intelligence artificielle. Il suffit qu’une des étapes du traitement ne le soit pas, comme l’extraction textuelle par exemple, pour que l’ensemble du processus, par contamination, ne soit pas explicable.

Pour certaines étapes c’est simple, comme l’ouverture d’un document par exemple. Mais dès qu’il s’agit de configurer une intelligence artificielle, certaines couches dites statistiques rendent ce procédé presque impossible. C’est le cas du machine learning. Basée sur des exemples, cette technique d’apprentissage est régie par la ressemblance vis-à-vis d’exemples passés. Souvent, le score de fiabilité détermine la réussite (en général un pourcentage). À l’inverse, une approche dite symbolique, détermine un résultat précis et explicable par rapport à son contexte. Le texte expliquant une décision pourra être affiché directement à l'utilisateur.

Et d’ailleurs, en parlant d’utilisateur, il est important d’avoir une explicabilité technique native, mais qu’elle soit également visible par les utilisateurs des solutions dans son interface visuelle. En sommes une solution d’IA explicable c’est permettre aux concepteurs comme aux utilisateurs d’utiliser une solution totalement transparente en termes de décision. 


2 - Est-elle importante pour les entreprises ?

L’explicabilité est toujours importante, mais pas toujours pour les mêmes raisons. Dans le cas d’une société de service, il est normal de pouvoir fournir aux clients des explications dans le cas d’une erreur de commande par exemple. 

Mais dans d’autres cas comme l’analyse de rapports d’expertises médicaux, la compagnie effectue des remboursements auprès de clients ayant subi des dommages personnels. Pour définir si un remboursement doit être effectué, et quel en sera le montant, l’ensemble de ce document est étudié avec minutie, comme les séquelles par exemple. Le risque d’erreur se doit d’être inexistant ! Il est impossible voir illégal de refuser un remboursement sous prétexte qu’un algorithme aurait donné un score 0,7 alors qu’il faudrait 0,8, ça ne serait pas entendable par le client.

L’explicabilité est donc plus qu’importante notamment sur certains secteurs comme la santé, le droit ou la défense où la sécurité des données est primordiale. D’ailleurs certains projets d’IA ont été annulés ou ont échoué pour ces raisons, et l’explicabilité est une chance supplémentaire pour leur permettre d’exister et de performer.

 

3 - Comment garantir l’explicabilité sur l’ensemble des projets ?

D’abord il y a des principes comme le fait de ne jamais inclure de statistiques dans nos projets d’intelligence artificielle. C’est d’ailleurs une demande que nous recevons régulièrement tant l’approche (machine learning) est connue par nos prospects et clients.

De plus, d’après nos tests, intégrer ce procédé n'améliore pas la qualité de nos résultats. Et même si nous l’intégrions dans une seule des étapes de conception d’une solution d’IA, nous perdrions au sens scientifique toute forme de démontrabilité. Par contamination une nouvelle fois, une étape n’étant pas explicable rendrait le processus complet inexplicable. 

Pour faire en sorte que cette approche, presque philosophique, s'intègre et se maintienne au sein de Golem.ai, nous portons beaucoup d’attention avec les équipes techniques et systèmes à la bonne gestion du pilotage des données, à la qualité de l’environnement dans lequel elles évoluent ou encore les sauvegardes qui seront effectuées. Par ailleurs, c’est un suivi régulier que nous faisons aussi avec les équipes chargées de l’expérience client, pour que cette explicabilité soit aussi visible par les utilisateurs de nos solutions.

En résumé, l’explicabililité reste certes native chez nous de par notre approche technologique, mais je m’assure également qu’au sein des toutes les équipes cette vision soit concrète mais surtout comprise et visible par nos utilisateurs.

 

4 - Une dernière observation ?

A noter, l’explicabilité prend de plus en plus d’importance dans la presse et les médias, mais aussi au sein des distributeurs. Par exemple un géant de l’IA, a dédié une équipe entière ayant pour rôle de s’assurer de l’intégration de l’explicabilité dans les projets. C’est une bonne chose mais c’est aussi un aveu assez fort sur les problématiques du machine learning et plus largement des approches connexionnistes.

L’approche symbolique permet ainsi nativement de pallier ces problèmes. De la même manière que nous parlons dans la cybersécurité de “security by design”, chez Golem.ai nous parlons “d’explicability by design”. 
 

Si vous souhaitez en savoir plus sur l'approche symbolique dans la compréhension du langage, découvrez l'interview faite par Digital CMO ou bien contactez-nous !

Nous levons 5 millions d’euros pour développer nos solutions ! Découvrez tous les détails dès maintenant