En mars 2024, l'Union Européenne a franchi une étape majeure dans la régulation de l'intelligence artificielle en adoptant un règlement visant à classer les systèmes d'IA selon leur niveau de risque. Ce cadre réglementaire a pour objectif de favoriser la sécurité et l'innovation en Europe, tout en interdisant certaines pratiques jugées inacceptables.
💶 Bon à savoir
L'UE prévoit d'investir jusqu'à 20 milliards d'euros par an dans le développement de l'intelligence artificielle, en se focalisant sur la recherche et l'innovation dans ce domaine.
Cadre réglementaire de l'IA
L'Union européenne a fait un pas important dans la régulation de l'intelligence artificielle. Le 13 mars 2024, après de longues négociations, les députés européens ont adopté un règlement ambitieux visant à encadrer le développement et l'utilisation de l'IA en Europe. L'objectif est double : favoriser l'innovation et l'excellence européenne en matière d'IA, tout en s'assurant que ces technologies respectent les droits fondamentaux des citoyens.
Une approche par les risques
Le cœur du nouveau règlement repose sur une classification des systèmes d'IA en fonction des risques qu'ils présentent, allant de "risque minime" à "risque inacceptable". Cette approche graduée permet d'appliquer des règles proportionnées aux enjeux.
Sont ainsi totalement interdits dans l'UE les systèmes d'IA exploitant les vulnérabilités des enfants ou des personnes en situation de handicap, ceux attribuant une note sociale aux citoyens ainsi que la reconnaissance biométrique à distance en temps réel dans les espaces publics à des fins de surveillance de masse. Ces applications sont jugées trop attentatoires aux libertés individuelles.
Exigences renforcées pour les systèmes à haut risque
A l'autre bout du spectre, les systèmes d'IA présentant peu ou pas de risque, comme les filtres anti-spam, ne font l'objet d'aucune règle spécifique. Entre les deux, le règlement définit une catégorie de systèmes "à haut risque" pour lesquels des exigences strictes s'appliqueront avant leur mise sur le marché :
- Traçabilité et transparence des algorithmes
- Robustesse, sécurité et exactitude des systèmes
- Surveillance humaine et possibilité d'invalider les décisions de l'IA
- Enregistrement dans une base de données européenne après évaluation de conformité
Sont concernés par exemple les systèmes d'IA utilisés dans les infrastructures critiques, l'éducation, le recrutement, l'accès au crédit ou encore par les forces de l'ordre et la justice. Pour les chatbots, les contenus générés par l'IA et les deepfakes, des obligations de transparence sont prévues afin que les utilisateurs soient distinctement informés qu'ils interagissent avec une machine.
Un champ d'application large
Le texte adopté maintient une définition large de l'IA, malgré les demandes de certains acteurs du secteur privé de se concentrer uniquement sur les systèmes d'apprentissage automatique. Il couvre ainsi tous les systèmes "développés au moyen d'une ou plusieurs des techniques et approches", en mesure de "générer des résultats tels que des contenus, des prédictions, des recommandations ou des décisions influençant les environnements avec lesquels ils interagissent".
Développer l'IA "digne de confiance" en Europe
Au-delà des interdictions et obligations, l'UE veut créer un cadre porteur pour faire émerger une IA éthique et
responsable. La Commission s'est fixée pour objectif d'atteindre 20 milliards d'euros d'investissement par an dans
ce domaine, via les programmes Horizon Europe et Digital Europe notamment.
L'ambition est claire : faire de l'Europe un acteur de premier plan dans le développement d'une IA "digne de confiance", respectueuse des valeurs démocratiques et des droits humains. Face aux géants américains et chinois,
l'UE entend ainsi promouvoir sa propre vision de l'IA, conciliant innovation et protection des citoyens. Un pari audacieux dont la mise en œuvre sera scrutée de près dans les années à venir.
Risques et protections dans l'AI régulée
L'Union européenne considère l'intelligence artificielle comme une opportunité majeure pour le développement économique et social, mais aussi comme un risque potentiel pour les droits fondamentaux des citoyens. C'est pourquoi elle a décidé d'adopter une approche équilibrée, visant à la fois à favoriser l'innovation et à encadrer les pratiques les plus risquées.
Un règlement fondé sur une classification des risques
Le nouveau règlement sur l'IA, adopté le 13 mars 2024 par le Parlement européen, repose sur une classification des systèmes d'intelligence artificielle en fonction des risques qu'ils font peser sur les droits et libertés des individus. Quatre catégories sont ainsi distinguées :
Risque inacceptable
Les applications d'IA présentant un "risque inacceptable" sont purement et simplement interdites dans l'Union européenne. Cela concerne notamment :
- Les systèmes exploitant les vulnérabilités des enfants ou des personnes en situation de handicap
- La notation sociale à des fins de surveillance ou de contrôle des citoyens
- L'identification biométrique à distance en temps réel dans les espaces publics, sauf exceptions strictement encadrées (recherche d'enfants disparus, prévention d'attentats, etc.)
Risque élevé
Les systèmes à "haut risque" sont soumis à des exigences strictes en termes de traçabilité, de transparence, de robustesse et de contrôle humain. Parmi eux figurent :
- Les systèmes biométriques d'identification des personnes
- Les applications utilisées dans des infrastructures critiques (transports, énergie, etc.)
- Les outils d'aide à la décision pour l'accès à l'éducation, à l'emploi ou au crédit
- Les technologies déployées dans le domaine judiciaire et policier
Type d'application | Exemples | Exigences |
---|---|---|
Infrastructures critiques | Gestion des réseaux d'électricité, systèmes de contrôle des véhicules autonomes | Documentation technique détaillée, tests de robustesse, contrôle humain |
Accès aux services essentiels | Notation de crédit, aide à l'orientation scolaire | Transparence sur les données utilisées, droit de recours |
Domaines régaliens | Evaluation des preuves, contrôles aux frontières | Autorisation judiciaire préalable, supervision humaine |
Risque limité
Cette catégorie concerne les systèmes qui n'ont qu'un impact limité sur les droits des personnes, mais nécessitent néanmoins une certaine transparence. C'est le cas par exemple des agents conversationnels (chatbots) : les utilisateurs doivent être informés qu'ils interagissent avec une intelligence artificielle.
Risque minimal
Enfin, les applications d'IA ne présentant qu'un risque minimal, comme les filtres anti-spam ou les jeux vidéo, ne font l'objet d'aucun encadrement spécifique. Cette catégorie devrait concerner la grande majorité des systèmes actuellement déployés dans l'UE.
Un cadre pour les "fondations models" de l'IA
Le règlement introduit également des obligations spécifiques pour les grands modèles de langage, dits "foundation models" ou "large language models", tels que GPT-3 ou PaLM. Ces systèmes entraînés sur d'immenses jeux de données sont capables de réaliser une multitude de tâches (génération de texte, traduction, réponse à des questions, etc.).
Considérés comme des composants clés des futures applications d'IA, ces modèles devront notamment faire l'objet d'une évaluation des risques systémiques qu'ils présentent, en termes de désinformation, de biais ou de cybersécurité. Leurs concepteurs seront tenus de documenter les données utilisées pour leur entraînement et de notifier tout incident grave.
Vers une IA éthique et innovante en Europe
En adoptant ce règlement novateur sur l'IA, fruit de près de deux ans de négociations, l'Union européenne entend promouvoir une approche fondée sur l'éthique et la confiance, tout en stimulant l'innovation et les investissements dans ce domaine stratégique. L'objectif est de positionner l'Europe comme un leader mondial du développement responsable de l'intelligence artificielle.
Selon la Commission européenne, les investissements publics et privés dans l'IA devraient ainsi atteindre 20 milliards d'euros par an dans l'UE. Un Bureau européen de l'IA, créé en février 2024, sera chargé de superviser la mise en œuvre du règlement, en collaboration avec les autorités nationales. Le texte entrera pleinement en application deux ans après sa publication au Journal officiel de l'UE, prévue courant 2024.
Implications de la régulation de l'IA pour l'économie et la société
L'Union européenne a fait le choix d'une approche équilibrée pour réguler l'intelligence artificielle, en cherchant à la fois à protéger les droits fondamentaux des citoyens et à favoriser le développement et l'adoption des technologies d'IA sur le continent. Cette stratégie vise à positionner l'Europe comme un leader mondial d'une IA éthique et de confiance, tout en stimulant l'innovation et la compétitivité de son économie numérique.
Bâtir la confiance publique dans l'IA
Le nouveau règlement européen pleinement applicable depuis septembre 2023 impose des exigences de transparence, de traçabilité et de robustesse pour les systèmes d'IA à haut risque comme ceux utilisés dans des domaines sensibles tels que la santé, la justice ou les ressources humaines. Ces règles, associées à une protection renforcée des données personnelles, sont cruciales pour rassurer les citoyens sur le déploiement de solutions basées sur l'apprentissage automatique.
Selon un Eurobaromètre spécial publié fin 2023, 71% des Européens estiment que l'IA doit être plus réglementée. Mais dans le même temps, 55% pensent que son utilisation peut avoir un impact positif sur la société. Bâtir un cadre régulateur solide apparaît donc comme un prérequis indispensable pour une large adoption de ces technologies dans un climat de confiance.
Soutenir l'innovation et les compétences
Au-delà des aspects réglementaires, l'UE mise sur des investissements publics et privés massifs pour combler son retard sur les leaders mondiaux de l'IA que sont les États-Unis et la Chine. L'objectif affiché est d'atteindre 20 milliards d'euros d'investissements annuels d'ici 2025. Des programmes comme Digital Europe ou Horizon Europe sont mobilisés pour financer des projets de R&D ainsi que le déploiement d'infrastructures de calcul et de traitement des données.
Programme | Budget IA 2021-2027 |
---|---|
Digital Europe | 2,1 milliards € |
Horizon Europe | 1,5 milliard € |
Ces moyens financiers s'accompagnent d'actions pour renforcer les compétences et talents européens en IA :
- Création de masters et doctorats spécialisés en IA partout en Europe
- Doublement des places dans les filières STEM (sciences, technologie, ingénierie, mathématiques)
- Programme de mobilité pour chercheurs et ingénieurs en IA
L'ambition est de former 1 million de spécialistes de l'IA en Europe d'ici 2030. Un enjeu clé pour disposer des ressources qualifiées indispensables au développement d'une IA européenne compétitive et éthique.
Promouvoir la circulation des données
La loi sur la gouvernance des données, dite Data Governance Act, est pleinement en vigueur depuis septembre 2023. Elle établit un cadre juridique clair pour la réutilisation de certaines données du secteur public et l'altruisme des données à des fins d'intérêt général comme la recherche médicale, la transition écologique ou l'amélioration des services publics. Ces dispositions facilitent la circulation des données au sein du marché unique tout en respectant les règles sur la propriété intellectuelle et la protection de la vie privée.
"Le cadre européen pour la circulation et l'accès aux données va stimuler le développement de l'IA en Europe. Il permettra aux chercheurs et aux entreprises d'accéder à des jeux de données de qualité tout en protégeant les droits des citoyens."
Thierry Breton, Commissaire européen au marché intérieur
En complément, la création d'"espaces européens des données" sectoriels (santé, automobile, finance, énergie...) favorise le partage volontaire de données entre acteurs publics et privés afin d'alimenter des applications d'IA dans des domaines stratégiques pour l'économie et la société européennes. Une initiative saluée par les industriels.
L'essentiel à retenir sur la régulation de l'IA dans l'UE
Le règlement de l'UE sur l'IA, qui sera pleinement applicable dès septembre 2023, établit des règles claires pour encourager une utilisation responsable de cette technologie dans des domaines clés comme la santé et l'environnement. Le développement de l'IA en harmonie avec les règles de protection des données sera crucial pour maintenir la confiance du public. Des investissements dans les infrastructures et les compétences numériques seront nécessaires pour soutenir le déploiement sécurisé de l'IA en Europe dans les années à venir.