Dans un monde en perpétuel évolution, l’intelligence artificielle (IA) est en train de remodeler de nombreux aspects de notre quotidien. Elle promet d’immenses avancées dans de nombreux domaines, de la santé à l’éducation, en passant par les transports et la sécurité. Toutefois, cette technologie de pointe soulève également des questions cruciales sur la sécurité, l’éthique et la régulation. Pour relever ces défis, l’Union Européenne (UE) a mis en place une législation sous le nom d‘IA Act qui aboutira cet été. Mais de quoi s’agit-il dans les faits ?
Qu’est-ce que l’IA Act ?
Proposé par la Commission Européenne en avril 2021, l’IA Act est un projet de loi ambitieux qui cherche à réguler l’utilisation de l’intelligence artificielle au sein des 27 pays de l’UE. Après deux ans de discussions et de négociations minutieuses, le 11 mai 2023, les eurodéputés ont voté en faveur d’une régulation plus stricte de l’IA. Le but de cette législation est de mettre en place un cadre juridique harmonisé pour l’IA, garantissant ainsi une approche uniforme de la technologie dans toute l’Europe.
Les objectifs de l’IA Act
L’IA Act vise à établir un équilibre délicat entre la prévention des abus potentiels de l’IA et la promotion de l’innovation. Il s’efforce de protéger les droits civils tout en stimulant l’innovation et la croissance économique. Comme l’a souligné l’eurodéputée allemande Svenja Hahn : « Nous avons réussi à trouver un compromis qui réglemente l’IA de manière proportionnée, protège les droits civils et stimule l’innovation et l’économie ». Ce compromis vise à garantir que l‘Europe reste à la pointe de la technologie de l’IA, tout en protégeant les intérêts de ses citoyens comme, récemment ajouté à la proposition de loi, l’interdiction de la surveillance biométrique, de la reconnaissance des émotions et des systèmes d’IA de police prédictive.
Mise en œuvre de l’IA Act
L’IA Act adopte une approche basée sur le risque pour réguler l’IA. Il catégorise différentes applications de l’IA en fonction de leur niveau de risque et impose des obligations appropriées aux fournisseurs et utilisateurs de l’IA. Par exemple, les applications d’IA considérées comme « à risque » – telles que celles utilisées dans les infrastructures critiques, l’éducation, les ressources humaines, le maintien de l’ordre ou la gestion des migrations – doivent se conformer à des exigences rigoureuses. Ces exigences comprennent le maintien d’un contrôle humain, la mise en place d’une documentation technique appropriée et d’un système de gestion des risques efficace.
Les prochaines étapes
Après le vote crucial du 11 mai 2023, le projet de régulation de l’IA doit encore être confirmé lors d’une séance plénière de la commission en juin. Une fois cette étape franchie, une nouvelle ère de régulation de l’IA pourra commencer en Europe. Les pays membres de l’UE auront un certain délai pour mettre en place les exigences de l’IA Act dans leur législation nationale. Cela signifie que les entreprises et les utilisateurs d’IA devront se conformer à ces nouvelles règles dans un avenir proche, mais l’intelligence artificielle évolue très vite et ces réglementations doivent évoluer en conséquence.
Comme pour l’application du RGPD en 2018, plusieurs entreprises impactées directement se questionnent sur le cadre applicatif de cette régulation, mais surtout sur la temporalité et les potentielles modifications qui auront lieu. Nous l’avons observé avec ChatGPT qui rabat les cartes du planning législatif, avec l’adoption de nouvelles mesures, et un nouveau cadre proposé par la CNIL.

Impact potentiel de l’IA Act
Le passage de l’IA Act marquera un tournant pour la technologie de l’IA en Europe. Les entreprises qui développent ou utilisent l’IA devront s’assurer qu’elles respectent les nouvelles règles. Cela pourrait entraîner des coûts supplémentaires pour la mise en conformité, mais cela devrait également apporter une plus grande confiance du public dans l’utilisation de l’IA, car les consommateurs seront assurés que les produits et services basés sur l’IA respectent les normes les plus élevées en matière d’éthique et de sécurité.
Du point de vue des entreprises productrices de solutions d’intelligences artificielles, les impacts restent difficiles à prévoir. Ils pourront être punitifs vis à vis de certaines technologies consommatrices de données (machine learning…), ou au contraire favoriser des IA explicable “by design” comme les solutions dites “symboliques”.
L’adoption de l’IA Act par l’UE est une étape importante vers la création d’un cadre réglementaire robuste pour l’IA. Elle représente une tentative ambitieuse d’équilibrer les impératifs de protection des consommateurs et de stimulation de l’innovation, tout en restant concurrentiel vis-à-vis d’autres pays hors UE. Alors que nous entrons dans une ère d’intelligence artificielle omniprésente, tant pour les IA génératives qu’analytiques, il est crucial de mettre en place des réglementations adéquates pour assurer une utilisation éthique et sûre de cette technologie révolutionnaire. Mais comment seront-elles appliquées ? Quels seront les impacts réels sur les entreprises ? L’année sera dans tous les cas décisive pour l’application de l’IA Act en Europe.