IA et institutions publiques : quels usages et quelles limites ?

En 2023, le gouvernement français a lancé Albert, une IA générative et souveraine conçue pour améliorer l’efficacité et la qualité des services aux citoyens. Avec l’augmentation de l’usage de l’intelligence artificielle dans les institutions publiques, il est crucial de comprendre ses applications et ses limites. Dès lors, cet article visera à expliciter les différents cas d’usage de l’IA dans les institutions publiques françaises, et mettant en avant ses avantages ainsi que ses différentes limites.

Quelle est la place de l’IA dans les institutions publiques françaises ? 

Expérimentation de l’IA générative dans les services publics

En octobre 2023, Stanislas Guerini a lancé la première expérimentation de l’utilisation d’une IA générative dans les services publics. Environ 1000 agents volontaires ont utilisé cette IA pour rédiger des réponses aux avis et commentaires en ligne des usagers, dans le cadre du programme Services Publics+. Les résultats montrent que l’IA a amélioré la réactivité des services publics : une réponse sur deux est facilitée par l’IA, le temps de réponse moyen est passé de 7 jours à 3 jours, et 70% des agents ont un ressenti positif de l’outil, tandis que 74% des usagers se disent satisfaits des réponses obtenues.

Développement de l’outil Albert

En parallèle, la DINUM développe Albert, un outil d’IA générative souverain, libre et ouvert, créé par et pour des agents publics. Albert propose des réponses personnalisées et assure la transparence des sources, facilitant l’accès à toutes les administrations. Dans les prochains mois, Albert sera déployé dans le réseau France services, auprès de conseillers volontaires.

Développer l’usage du français par l’IA

Jean-Noël Barrot, ancien ministre délégué chargé du numérique,  soutient également la création d’un hub de données francophones, nommé Villers-Cotterêt, destiné à augmenter la présence du français dans les modèles d’IA. Actuellement, moins de 0,2% des données d’entraînement des modèles d’IA sont en français. Ce projet vise à renforcer la souveraineté numérique française en développant une IA reflétant la culture française.

Alliance Publique-Privé pour renforcer la souveraineté Numérique

L’incubateur Alliance, dirigé par la DINUM, regroupe des membres de diverses administrations, entreprises et institutions de recherche pour développer des produits d’IA souverains et libres. Par exemple, le modèle CamemBERT, développé par l’INRIA, est largement utilisé pour optimiser la gestion des demandes clients chez ENEDIS, démontrant un retour sur investissement significatif.

Pour autant, on observe certaines limites inhérentes aux IA génératives

Generative AIs, bien qu’elles soient utiles pour certains cas, elles ne sont pas adaptées pour tous les usages. En effet, nous pouvons nous interroger sur la volonté d’implanter une IA générative au sein des institutions publiques tant certaines limites subsistent. 

Impact environnemental

Les modèles d’IA générative sont gourmands en ressources et consomment beaucoup d’énergie pour être formés et utilisés. Cela soulève des préoccupations écologiques, surtout dans un contexte où la soutenablité du GreenIT et la réduction des émissions de carbone sont des priorités mondiales.

Vulnérabilité aux attaques

Les IA génératives peuvent être manipulées par des acteurs malveillants pour produire de fausses informations ou des contenus trompeurs, ce qui pourrait être utilisé pour influencer l’opinion publique ou saper la confiance dans les institutions publiques. De plus, ces systèmes peuvent être la cible de cyberattaques visant à altérer leur fonctionnement ou à voler des données sensibles. Plus encore, au sein même de ces LLMs nous retrouvons ce qu’on appelle des “sleeper agents” soit des agents malveillants qui visent à rendre le modèle dangereux, qui peuvent soit être intégré par un individu externe, soit par le LLM lui-même. Nous en parlerons justement dans un prochain article.

Sécurité et protection des données

Les systèmes d’IA générative requièrent souvent l’accès à de vastes quantités de données, y compris personnelles, pour fonctionner efficacement. Or, cela soulève des préoccupations importantes en matière de protection des données et de respect de la vie privée. Par exemple, l’utilisation de l’application de traçage des contacts Aarogya Setu en Inde a suscité des inquiétudes quant à la sécurité des données collectées et à la possibilité de violations de la vie privée.

Manque de transparence et d’explicabilité

Les modèles d’IA générative sont souvent qualifiés de « boîtes noires » en raison dela difficulté à expliquer leurs processus décisionnels. C’est-à-dire qu’on ne peut expliquer pourquoi le modèle a donné une réponse plutôt qu’une autre.  Dans le contexte des services publics, cela pose un problème majeur de transparence et de responsabilité tant les citoyens et les responsables publics doivent pouvoir comprendre comment et pourquoi une décision a été prise pour garantir l’équité et la légitimité.

L’IA de confiance comme solution 

Une IA souveraine ne suffit pas à être une IA de confiance. L’IA de confiance se concentre sur plusieurs piliers essentiels qui doivent être intégrés dès la conception des systèmes :

Unbiased : Un système d’IA éthique prend des décisions justes, sans discrimination. 

Explicabilité et transparence : Il est crucial que les processus décisionnels de l’IA soient compréhensibles pour tous les utilisateurs finaux. C’est-à-dire qu’il faut comprendre pourquoi l’IA a donné une réponse plutôt qu’une autre.

Security : Les systèmes d’IA doivent être conçus pour être résistants aux cyber-attaques et sécurisés contre les intrusions externes. Des pratiques comme le chiffrement des données et des protocoles de sécurité robustes sont essentiels.

Privacy policy : L’IA doit être programmée pour minimiser les données collectées et traitées, en adhérence avec des lois telles que le RGPD en Europe. (Cf : CNIL publishes its first recommendations on AI)

Determinism : Les systèmes d’IA doivent fonctionner de manière consistante et prédictible. Les erreurs doivent être minimisées à travers des tests rigoureux et des revues de code.

Frugality : Une IA de confiance est également une IA frugale. C’est-à-dire qu’elle n’a pas besoin d’une grande quantité de données pour être performante. Or, lorsque l’on sait que les problématiques de Green IT are becoming increasingly important, this is an important criterion for a trusted AI.

Aujourd’hui, seules les IAs analytiques symboliques respectent tous les critères d’une IA de confiance, grâce à leur prédictibilité et leur explicabilité. Or les IAs génératives, en raison de leurs hallucinations, ne peuvent encore l’être. Ce qui explique pourquoi 70% des français veulent une IA de confiance selon le Baromètre Impact AI 2023.

In fine, l’intégration de l’IA générative, comme Albert en France, promet d’améliorer l’efficacité des services publics. Cependant, elle pose un paradoxe : comment concilier l’efficacité de l’IA avec la nécessité de maintenir une IA souveraine et de confiance ? D’un côté, l’IA générative permet certes des gains d’efficacité, mais de l’autre, elle soulève des préoccupations de sécurité, d’explicabilité, de vulnérabilité et d’impact environnemental.

Pour surmonter ce paradoxe, les institutions publiques doivent développer des solutions certes souveraines, mais surtout de confiance. En adoptant une IA qui respecte les principes d’éthique et de sécurité, il est possible de maximiser les bénéfices tout en minimisant les risques, assurant ainsi une utilisation responsable et bénéfique de l’IA dans le secteur public. En ce sens, le choix d’une IA analytique symbolique, ou de la combinaison de celle-ci avec une IA générative, aurait peut-être été plus judicieux.

Et si vous êtes une entreprise qui souhaite traiter vos flux de messages entrants, avec une IA de confiance, Contact us !