La loi sur l’IA est le tout premier cadre juridique, qui s’attaque aux risques de l’IA et permet à l’Europe de jouer un rôle de premier plan à l’échelle mondiale.
La loi sur l’IA (règlement (UE) 2024/1689 établissant des règles harmonisées en matière d’intelligence artificielle) est le tout premier cadre juridique complet sur l’IA à l’échelle mondiale. L’objectif de ces règles est de favoriser une IA digne de confiance en Europe.
La loi sur l’IA définit un ensemble clair de règles fondées sur les risques pour les développeurs et les déployeurs d’IA en ce qui concerne les utilisations spécifiques de l’IA.
En cas de besoin d’un avocat en numérique, vous pouvez lire notre page dédiée.
POURQUOI AVONS-NOUS BESOIN D’ENCADRER L’IA ?
La loi sur l’IA garantit que les membres de l’Union européenne peuvent faire confiance à ce que l’IA a à offrir. Si la plupart des systèmes d’IA ne présentent qu’un risque limité, voire nul, et peuvent contribuer à résoudre de nombreux défis sociétaux, certains systèmes d’IA créent des risques que nous devons prendre en compte pour éviter des résultats indésirables.
Bien que la législation existante offre une certaine protection, elle est insuffisante pour répondre aux défis spécifiques que les systèmes d’IA peuvent poser.
UNE APPROCHE FONDEE SUR LE RISQUE
La loi sur l’IA définit quatre niveaux de risque pour les systèmes d’IA :

LE RISQUE INACCEPTABLE
Depuis le 2 février 2025, au titre de l’article 5 de l’IA ACT, tous les systèmes d’IA considérés comme une menace évidente pour la sécurité, les moyens de subsistance et les droits des personnes sont interdits.
La loi sur l’IA interdit huit pratiques, à savoir :
- La manipulation et la tromperie nuisibles fondées sur l’IA
- L’exploitation préjudiciable des vulnérabilités par l’IA
- La notation sociale
- L’évaluation ou la prédiction du risque d’infraction pénale individuelle
- L’exploration non ciblée de l’internet ou du matériel de vidéosurveillance pour créer ou développer des bases de données de reconnaissance faciale
- Reconnaissance des émotions sur le lieu de travail et dans les établissements d’enseignement
- Catégorisation biométrique pour déduire certaines caractéristiques protégées
- Identification biométrique à distance en temps réel à des fins répressives dans des espaces accessibles au public.

LE RISQUE ELEVE
Les cas d’utilisation de l’IA susceptibles de présenter des risques graves pour la santé, la sécurité ou les droits fondamentaux sont classés comme étant à haut risque.
Ces cas d’utilisation à haut risque comprennent :
- Les composants de sécurité de l’IA dans les infrastructures critiques (par exemple, les transports), dont la défaillance pourrait mettre en danger la vie et la santé des citoyens
- Les solutions d’IA utilisées dans les établissements d’enseignement, qui peuvent déterminer l’accès à l’éducation et le cours de la vie professionnelle d’une personne (par exemple, la notation des examens)
- Les composants de sécurité des produits basés sur l’IA (par exemple, l’application de l’IA à la chirurgie assistée par robot)
- Les outils d’IA pour l’emploi, la gestion des travailleurs et l’accès au travail indépendant (par exemple, les logiciels de tri de CV pour le recrutement).
- Certains cas d’utilisation de l’IA pour donner accès à des services privés et publics essentiels (par exemple, l’évaluation du crédit qui empêche les citoyens d’obtenir un prêt)
- Les systèmes d’IA utilisés pour l’identification biométrique à distance, la reconnaissance des émotions et la catégorisation biométrique (par exemple, un système d’IA pour identifier rétroactivement un voleur à l’étalage).
- Les cas d’utilisation de l’IA dans l’application de la loi qui peuvent interférer avec les droits fondamentaux des personnes (par exemple, l’évaluation de la fiabilité des preuves)
- Les cas d’utilisation de l’IA dans la gestion des migrations, de l’asile et des contrôles aux frontières (par exemple, l’examen automatisé des demandes de visa)
- Les solutions d’IA utilisées dans l’administration de la justice et les processus démocratiques (par exemple, les solutions d’IA pour préparer les décisions de justice).

Les systèmes d’IA à haut risque sont soumis à des obligations strictes avant de pouvoir être mis sur le marché :
- Systèmes adéquats d’évaluation et d’atténuation des risques
- Haute qualité des ensembles de données alimentant le système afin de minimiser les risques de résultats discriminatoires
- Enregistrement des activités pour garantir la traçabilité des résultats
- Une documentation détaillée fournissant toutes les informations nécessaires sur le système et sa finalité pour permettre aux autorités d’évaluer sa conformité
- Des informations claires et adéquates à l’intention du responsable du déploiement
- Des mesures de surveillance humaine appropriées
- Un niveau élevé de robustesse, de cybersécurité et de précision.

LE RISQUE DE TRANSPARENCE
Il s’agit des risques associés au besoin de transparence concernant l’utilisation de l’IA. La loi sur l’IA introduit des obligations d’information spécifiques pour garantir que les humains sont informés lorsque cela est nécessaire pour préserver la confiance. Par exemple, lors de l’utilisation de systèmes d’IA tels que les chatbots, les humains doivent être informés qu’ils interagissent avec une machine afin qu’ils puissent prendre une décision en connaissance de cause.
En outre, les fournisseurs d’IA générative doivent veiller à ce que le contenu généré par l’IA soit identifiable. Certains contenus générés par l’IA doivent être clairement et visiblement étiquetés, notamment les deep fakes et les textes publiés dans le but d’informer le public sur des questions d’intérêt public.
LE RISQUE MINIME OU NUL
La loi sur l’IA n’introduit pas de règles pour l’IA considérée comme présentant un risque minimal ou nul. La grande majorité des systèmes d’IA actuellement utilisés dans l’UE entrent dans cette catégorie. Il s’agit notamment d’applications telles que les jeux vidéo ou les filtres anti-spam basés sur l’IA.
COMMENT CELA FONCTIONNE-T-IL EN PRATIQUE POUR LES FOURNISSEURS DE SYSTEMES D’IA A HAUT RISQUE ?
Une fois qu’un système d’IA est sur le marché, les autorités sont chargées de la surveillance du marché, les déployeurs assurent la surveillance humaine et le suivi, et les fournisseurs ont mis en place un système de suivi post-commercialisation. Les fournisseurs et les déployeurs signalent également les incidents graves et les dysfonctionnements.
UNE SOLUTION POUR UNE UTILISATION FIABLE DES GRANDS MODELES D’IA
Les modèles d’IA à usage général peuvent effectuer un large éventail de tâches et deviennent la base de nombreux systèmes d’IA dans l’UE. Certains de ces modèles pourraient comporter des risques systémiques s’ils sont très performants ou largement utilisés. Afin de garantir une IA sûre et fiable, la loi sur l’IA établit des règles pour les fournisseurs de ces modèles.
Ces règles portent notamment sur la transparence et les droits d’auteur. Pour les modèles susceptibles de présenter des risques systémiques, les fournisseurs doivent évaluer et atténuer ces risques.
Les règles de la loi sur l’IA concernant l’IA à usage général entreront en vigueur en août 2025. L’Office européen de l’IA a entrepris l’élaboration d’un code de bonnes pratiques pour détailler ces règles. Ce code devrait constituer un outil central permettant aux fournisseurs de démontrer qu’ils respectent la loi sur l’IA et qu’ils intègrent les pratiques les plus récentes.
GOUVERNANCE ET MISE EN ŒUVRE
L’Office européen de l’IA, établi en février 2024 au sein de la Commission, supervise l’application et la mise en œuvre de la loi sur l’IA dans les États membres de l’UE. Il sera également chargé de superviser les modèles d’IA les plus puissants, appelés modèles d’IA à usage général. Les États membres de l’UE supervisent les règles applicables aux systèmes d’IA et doivent mettre en place des autorités de contrôle d’ici le 2 août 2025.
La gouvernance de la loi sur l’IA sera assurée par trois organes consultatifs, à savoir
- Le Conseil européen de l’intelligence artificielle, composé de représentants des États membres de l’UE
- Le groupe scientifique, composé d’experts indépendants dans le domaine de l’IA
- Le forum consultatif, qui représente une sélection variée de parties prenantes, tant commerciales que non commerciales.
Cette gouvernance multipartite garantira une approche équilibrée de la mise en œuvre de la loi sur l’IA.
PROCHAINES ETAPES
La loi sur l’IA est entrée en vigueur le 1er août 2024 et sera pleinement applicable deux ans plus tard, le 2 août 2026, à quelques exceptions près :
- Les interdictions et les obligations d’alphabétisation en matière d’IA sont entrées en application à partir du 2 février 2025
- Les règles de gouvernance et les obligations relatives aux modèles d’IA à usage général s’appliquent à partir du 2 août 2025
- Les règles relatives aux systèmes d’IA à haut risque – intégrés dans des produits réglementés – bénéficient d’une période de transition prolongée jusqu’au 2 août 2027

Sources :
https://artificialintelligenceact.eu/fr
https://digital-strategy.ec.europa.eu/fr/policies/regulatory-framework-ai