L’AI Act : les dernières nouveautés ?

La réglementation concernant l’intelligence artificielle (AI Act en anglais), constitue une initiative réglementaire de l’Union européenne, introduite le 21 avril 2021 par la Commission européenne. Son objectif principal est de mettre en place un cadre légal harmonisé destiné à réguler les applications de l’intelligence artificielle, tout en catégorisant ces dernières selon leur niveau de risque (minime, limité, élevé, ou inacceptable). Le Parlement européen a, le mercredi 13 mars 2024, ratifié des dispositions législatives destinées à réglementer l’emploi de l’IA. Ce cadre législatif, conçu pour préserver les droits fondamentaux et garantir la sécurité publique tout en promouvant l’innovation, a été adopté par les membres du Parlement européen lors d’un vote en session plénière, avec 523 votes favorables contre 46 oppositions. Dès lors, cet article visera à expliciter en quoi consiste les nouveautés de l’AI Act ainsi que le choix de la bonne technologie que cela induit.

Les nouveautés du texte final de l’AI Act

1. Catégorisation des risques et obligations spécifiques

Le texte final précise la catégorisation basée sur le risque des systèmes d’IA, distinguant les applications en fonction de leur potentiel de préjudice. Cela va des systèmes à risque minimal aux systèmes à haut risque, avec des obligations spécifiques pour chaque catégorie, notamment en termes de transparence, de supervision humaine et de gestion des données​.

2. Documentation et transparence pour les modèles d’IA généraux

Une nouveauté importante concerne les exigences de documentation technique et de transparence pour les modèles d’IA généraux, comme les modèles de langage. Les développeurs doivent maintenant détailler comment ces modèles ont été construits, comment ils respectent le droit d’auteur et quelles données ont été utilisées pour leur entraînement​.

3. Exemptions pour les modèles open source

Le texte final introduit une exemption pour les modèles d’IA open source, allégeant ainsi certaines des obligations réglementaires pour ces projets, à condition qu’ils partagent ouvertement les détails de leur conception et de leur fonctionnement​.

4. Interdictions et usages de l’IA

Le texte clarifie et étend les interdictions de certains usages d’IA considérés comme présentant un risque inacceptable, comme la surveillance biométrique de masse et les systèmes de notation sociale. Il détaille également les conditions sous lesquelles les systèmes d’IA à haut risque peuvent être déployés​.

5. Gouvernance et mise en œuvre

Le texte final établit un Bureau européen de l’IA chargé de coordonner la conformité et l’application de l’acte, marquant un effort pour centraliser la surveillance et l’application des règles au sein de l’Union européenne​.

Ces ajustements reflètent l’intention de l’UE de créer un cadre réglementaire qui favorise à la fois l’innovation et la confiance dans le développement de l’IA, tout en protégeant les citoyens et les valeurs européennes. Le texte final de l’AI Act marque une étape importante dans la régulation de l’intelligence artificielle, établissant un précédent qui pourrait influencer les normes mondiales dans ce domaine.

Le choix de la bonne technologie 

Le non-respect des règles peut entraîner des amendes allant de 7,5 millions d’euros ou 1,5 % du chiffre d’affaires à 35 millions d’euros ou 7 % du chiffre d’affaires mondial, en fonction de l’infraction et de la taille de l’entreprise. Dès lors, le choix de la bonne technologie s’avère crucial tant il faut choisir un système d’IA qui n’est pas sujet aux risques précédemment cités.

En fonction de ces différents risques, définissons certaines notions qui nous semblent importantes pour choisir la technologie appropriée aux réglementations de l’AI Act : 

Explicabilité : Certains modèles d’IAs générative ne sont parfois pas totalement explicable. C’est-à-dire qu’on ne peut toujours expliquer pourquoi l’IA a donné une réponse plutôt qu’une autre. Or ce manque de transparence est un facteur de risque limité selon l’AI Act. C’est pourquoi il semble important de privilégier des modèles d’IAs explicables.

Respect des données personnelles : Nous savons également que l’AI Act estime à risques élevés les systèmes d’IA qui peuvent affecter négativement les droits des personnes. Or, pour les systèmes d’IAs nécessitant des données d’entraînement, on ne peut y mettre des données sensibles/classifiées (Santé, Défense…) sans atteindre les droits des personnes. C’est pourquoi, si vous traitez des données sensibles et/ou classifiées, il faut choisir un modèle d’IA qui n’a pas besoin de ces données pour être performant.

Supervision facilitée : Si l’AI Act continue d’être modifié et/ou ajusté, il peut être particulièrement utile d’avoir un modèle d’IA qui soit facilement contrôlable pour répondre rapidement aux exigences réglementaires changeantes ou pour rectifier des décisions erronées. Plus encore, puisque l’AI Act incite à la supervision constante d’un humain, il faut que cette supervision soit facilitée pour qu’elle soit la plus optimale possible.

Ainsi, l’approche par les risques prônée par l’AI Act implique aux décideurs de choisir la bonne technologie qui minimise ces risques. Et c’est là qu’intervient l‘intelligence artificielle analytique symbolique. En effet, de par son caractère explicable, respectant les données personnelles et la supervision facilitée qu’elle permet dessus, l’IA analytique symbolique apparaît comme une solution compatible avec les exigences de l’AI Act.
Vous souhaitez traiter vos messages avec une IA de confiance ?  contactez-nous !

Et pour connaitre le modèle d’IA le plus approprié à votre usage, répondez à notre questionnaire !