extract de: https://digital-strategy.ec.europa.eu/en/policies/regulatory-framework-ai
La Commission propose le tout premier cadre juridique sur l'IA, qui aborde les risques lié à l'IA et permet à l'Europe de jouer un rôle de premier plan à l'échelle mondiale.
La proposition de règlement vise à fournir aux développeurs, aux déployeurs et aux utilisateurs de l'IA des exigences et des obligations claires concernant les utilisations spécifiques de l'IA. Dans le même temps, la proposition vise à réduire les charges administratives et financières pour les entreprises, en particulier les petites et moyennes entreprises (PME).
La proposition fait partie d'un ensemble plus vaste de mesures sur l'IA, qui comprend également le plan coordonné actualisé sur l'IA. Ensemble, le cadre réglementaire et le plan coordonné garantiront la sécurité et les droits fondamentaux des personnes et des entreprises en matière d'IA. Et ils renforceront l'adoption, l'investissement et l'innovation dans l'IA dans toute l'UE.
Pourquoi avons-nous besoin de règles sur l'IA ?
Le règlement proposé sur l'IA vise à établir la confiance des Européens quant aux capacités de l'IA. Si de nombreux systèmes d'IA présentent des risques minimes ou nuls et jouent un rôle dans la résolution des problèmes sociétaux, certains systèmes d'IA présentent des risques potentiels qui nécessitent d'être atténués pour éviter des conséquences défavorables.
Un exemple de préoccupation réside dans la difficulté de comprendre la logique qui sous-tend le processus de prise de décision, les prévisions et les actions ultérieures d'un système d'IA. Par conséquent, cette opacité pourrait entraver l'évaluation de la question de savoir si une personne a subi un traitement injuste, par exemple dans les processus de recrutement ou les demandes d'admission à des programmes d'aide sociale.
Même si la législation actuelle offre certaines garanties, elle ne répond pas suffisamment aux différents défis que les systèmes d'IA peuvent introduire.
Les règles proposées :
- aborderont les risques spécifiquement créés par les applications d'IA ;
- proposeront une liste d'applications à haut risque ;
- établiront des exigences claires pour les systèmes d'IA pour les applications à haut risque ;
- définiront des obligations spécifiques pour les utilisateurs et les fournisseurs d'applications à haut risque ;
- proposeront une évaluation de la conformité avant la mise en service ou la mise sur le marché du système d'IA ;
- proposeront des mesures d'application après la mise sur le marché d'un tel système d'IA ;
- proposeront une structure de gouvernance au niveau européen et national.
Le cadre réglementaire définit 4 niveaux de risque en matière d’IA :
- Risque inacceptable
- Risque élevé
- Risque limité
- Risque minimal ou nul
Risque inacceptable
Tous les systèmes d’IA considérés comme une menace claire pour la sécurité, les moyens de subsistance et les droits des personnes seront interdits, de la notation sociale par les gouvernements aux jouets utilisant l’assistance vocale qui encouragent les comportements dangereux.
Risque élevé
Les systèmes d’IA identifiés comme à haut risque incluent la technologie d’IA utilisée dans :
les infrastructures critiques (par exemple les transports), qui pourraient mettre en danger la vie et la santé des citoyens ;
la formation scolaire ou professionnelle, qui peut déterminer l’accès à l’éducation et le parcours professionnel d’une personne (par exemple la notation des examens) ;
les composants de sécurité des produits (par exemple l’application de l’IA dans la chirurgie assistée par robot) ;
l’emploi, la gestion des travailleurs et l’accès au travail indépendant (par exemple les logiciels de tri de CV pour les procédures de recrutement) ;
les services privés et publics essentiels (par exemple la notation de crédit refusant aux citoyens la possibilité d’obtenir un prêt) ;
application de la loi pouvant porter atteinte aux droits fondamentaux des personnes (par exemple, évaluation de la fiabilité des preuves) ;
gestion des migrations, de l’asile et du contrôle aux frontières (par exemple, vérification de l’authenticité des documents de voyage) ;
administration de la justice et des processus démocratiques (par exemple, application de la loi à un ensemble concret de faits).
Les systèmes d’IA à haut risque seront soumis à des obligatios strictes avant de pouvoir être mis sur le marché :
- systèmes adéquats d’évaluation et d’atténuation des risques ;
- qualité élevée des ensembles de données alimentant le système afin de minimiser les risques et les résultats discriminatoires ;
- journalisation des activités pour assurer la traçabilité des résultats ;
- documentation détaillée fournissant toutes les informations nécessaires sur le système et son objectif pour que les autorités puissent évaluer sa conformité ;
- informations claires et adéquates à l’utilisateur ;
- mesures de surveillance humaine appropriées pour minimiser les risques ;
- niveau élevé de robustesse, de sécurité et de précision.
Tous les systèmes d’identification biométrique à distance sont considérés comme à haut risque et soumis à des exigences strictes. L’utilisation de l’identification biométrique à distance dans des espaces accessibles au public à des fins d’application de la loi est, en principe, interdite.
Des exceptions limitées sont strictement définies et réglementées, par exemple lorsqu'il est nécessaire de rechercher un enfant disparu, de prévenir une menace terroriste spécifique et imminente ou de détecter, localiser, identifier ou poursuivre un auteur ou un suspect d'une infraction pénale grave.
Une telle utilisation est soumise à l'autorisation d'un organe judiciaire ou autre organe indépendant et à des limites appropriées en termes de temps, de portée géographique et de bases de données consultées.
Risque limité
Le risque limité fait référence aux systèmes d'IA ayant des obligations de transparence spécifiques. Lorsqu'ils utilisent des systèmes d'IA tels que des chatbots, les utilisateurs doivent être conscients qu'ils interagissent avec une machine afin de pouvoir