L’Intelligence Artificielle responsable dans le domaine militaire

Beaucoup d’entreprises et institutions innovent en intégrant des solutions d’intelligence artificielle en se posant parallèlement une même question : quels seront les impacts techniques et humains dans le temps ? Plus particulièrement dans le domaine militaire, c’est un sujet qui impacte également la souveraineté des états et leur impact sur la scène internationale. Mais alors quelles sont les opportunités, les défis mais aussi les risques des IA dans ce domaine ? Retour sur notre présence au salon REAIM, le premier sommet mondial sur l’intelligence artificielle responsable dans le domaine militaire.

Un sommet mondial des représentants gouvernementaux de la défense

Le gouvernement des Pays-Bas en partenariat avec la république de Corée ont co-organisé le 15 et 16 Février 2023 le premier sommet de l’IA responsable dans le domaine militaire : REAIM 2023. Il regroupait des ministres des affaires étrangères, des délégués gouvernementaux, des représentants des Nations Unies, mais aussi des représentants d’institutions du savoir, de groupes de réflexion, des industriels et des organismes de la société civile comme la nôtre.

Image: ©Ministry of Foreign Affairs / Phil Nijhuis

L’objectif était clair, établir un appel à l’action pour rationaliser le déploiement et l’utilisation de solutions d’intelligences artificielles responsables. Plus concrètement, à l’issue de cet événement une Commission Mondiale sur l’IA a été créée pour récolter l’ensemble des contributions des pays, prioriser ces actions dans les agendas politiques étatiques, sensibiliser les acteurs, et déterminer les créations, usages et déploiements de ces technologies de manière responsable . C’est avant tout un appel au dialogue qui crée les prémisses d’une gouvernance de l’IA qui est nécessaire.
Comme l’évoquait le ministre Hoekstra lors de la clôture du sommet : “J’ai fait un aveu lors de la table ronde ministérielle que je voudrais répéter ici en toute transparence : Des 2 000 personnes présentes à cette conférence, il est certainement vrai que nous, politiques, connaissons le moins l’IA. C’est ce manque de connaissances, ce manque de compréhension, qui me rend mal à l’aise.” Pour autant, comme il le cite, c’est justement un moyen d’appréhender ces sujets, notamment pour les risques encourus, notamment humain, lors du manquement à certaines règles comme l’explicabilité ou l’assurance de la souveraineté étatique.

L’intelligence artificielle responsable, AI washing ?

Parmi les différentes conférences et ateliers se dressent au fur et à mesure une liste de cas d’usages, de réflexions, d’expériences des présents autour des impacts et risques de l’intégration de nouvelles solutions d’IA dans les armées, les ministères, les universités et bien d’autres. ChatGPT fait le buzz depuis plusieurs semaines, pour autant d’autres cas d’usages performant autant qu’ils interrogent. Comment la 3D simplifie la prise de décision sur le terrain ? Comment les algorithmes peuvent être audités selon les données qu’ils utilisent ou montrent ? Comment mutualiser les données pour compléter les images d’œuvres culturelles ?
Beaucoup de questions auxquelles Killian Vermersch notre CEO & co-fondateur a pu répondre lors de sa conférence suite à son invitation au salon REAIM sur l’espace innovation lab : “Comment les valeurs éthiques profitent-elles aux projets d’IA dans le secteur militaire ?”. L’IA responsable n’est pas un buzzword si nous appliquons certaines règles dans le choix de la technologie d’IA que nous intégrons. C’est notamment le cas pour des solutions d’analyse du langage (NLP) qui analyserons de nombreuses données qui peuvent être sensibles ou propres à un état. Mais quelles sont ces valeurs ?

image: Killian Vermersch CEO of Golem.ai

L’explicabilité des décisions

Rien de surprenant, c’est un enjeu dans ce secteur. Il est impensable qu’une information donnée par une technologie, engendrant parfois une décision impactante, ne puisse être transparente pour les utilisateurs. D’une part le degré d’acceptation serait moindre, et d’autre part cela poserait de nombreuses questions éthiques quant à son usage.

La souveraineté

L’indépendance des éditeurs est importante. Pouvoir utiliser une technologie indépendamment d’une entreprise ou d’un pays, éviter certains biais liés à une forme de “pouvoir décentralisé” qui donnerait la possibilité à certains acteurs d’avoir du poids dans les décisions. La transmission des connaissances à l’utilisateur est un gage d’autonomie. 

La frugalité 

Nous le savons, la consommation de données impose la mise en place d’infrastructures conséquentes complexifiant certains déploiement. De plus, une hausse de l’utilisation de données aurait également une répercussion environnementale forte, car l’échelle d’une solution dans le domaine militaire est souvent supérieure aux solutions civiles. Peu de matériel permet un déploiement rapide. Dans le cadre de l’analyse du langage (analyse de textes ou de documents), le choix technologiques influe directement sur la consommation de données. Éviter une technologie basée sur du machine learning par exemple permet d’atteindre cet objectif.

La considération humaine 

Autre avantage éthique évident, il est important de prendre en compte l’expérience et les avis des personnes qui élaborent ces solutions, mais aussi les utilisateurs finaux. C’est un moyen de simplifier son usage à grande échelle, mais aussi de faciliter son acceptation. 

Photo: Ministry of Foreign Affairs / Martijn Beekman