Le Règlement Européen sur l’Intelligence Artificielle entre en vigueur – mais tout doucement.

Image générée avec l'assistance de ChatGPT et DALL·E
Depuis le 14 juin 2024, le premier volet du règlement européen sur l’intelligence artificielle, l’IA Act, est entré en application. Ce texte, inédit au niveau mondial, vise à encadrer l’usage des systèmes d’intelligence artificielle en imposant des interdictions strictes sur certains usages jugés inacceptables.
Mais ce règlement, présenté comme une révolution dans la régulation de l’IA, entre en vigueur progressivement. Il se déploiera en plusieurs étapes jusqu’en 2027. Alors, quelles sont les premières règles appliquées ? Quels systèmes sont concernés ? Et que réserve la suite ?
Les IA interdites en Europe
L’IA Act repose sur une classification des systèmes d’intelligence artificielle en trois grandes catégories :
- IA à faible risque (outils classiques de traitement des données, assistants virtuels, IA générative grand public comme ChatGPT)
- IA à haut risque (utilisation dans des domaines critiques comme la santé, la finance ou la justice)
- IA inacceptable (les systèmes jugés dangereux pour les droits fondamentaux)
Le premier volet entré en vigueur concerne uniquement les IA jugées inacceptables. Concrètement, cela signifie l’interdiction immédiate de certains systèmes d’IA, dont :
- Les IA manipulatrices : tout système visant à influencer profondément le comportement d’une personne pour l’amener à prendre des décisions qu’elle n’aurait pas prises autrement.
- Les IA exploitant les vulnérabilités : les systèmes qui utilisent des données sur l’âge, le handicap ou la situation sociale et économique d’une personne pour l’influencer ou la désavantager.
- Les systèmes de notation sociale : toute IA évaluant les comportements des individus pour leur attribuer un score social, sur le modèle de ce qui existe en Chine.
- Les prédictions criminelles : les technologies cherchant à prédire le risque qu’un individu commette un crime en se basant sur des traits de personnalité ou des caractéristiques personnelles.
- L’analyse biométrique sensible : tout système d’IA qui analyse des données biométriques (empreintes, reconnaissance faciale, ADN) pour déduire des informations personnelles sensibles comme la race, l’orientation sexuelle, les opinions politiques ou religieuses.
Des exceptions strictes pour la reconnaissance biométrique
Le règlement prévoit quelques exceptions, notamment pour l’usage de la reconnaissance biométrique en temps réel.
Dans certains cas spécifiques, comme la recherche de personnes disparues, la prévention d’actes terroristes ou l’identification de suspects, les autorités pourront encore utiliser ces systèmes. Cependant, le cadre réglementaire sera très strict et nécessitera des autorisations spécifiques.
Un déploiement progressif des autres mesures jusqu’en 2027
Le volet entré en application le 14 juin 2024 n’est que la première étape du règlement IA. D’autres obligations entreront en vigueur progressivement :
Dès le 1er août 2024 :
- Obligations de transparence pour les IA génératives comme ChatGPT ou MidJourney.
- Signalement obligatoire des contenus créés par IA (images, vidéos, textes).
- Obligation d’indiquer les sources de données utilisées pour entraîner les modèles.
À partir du 2 août 2026 :
- Encadrement strict des IA à haut risque dans les secteurs sensibles (médical, bancaire, emploi, justice).
D’ici 2027 :
- Supervision humaine obligatoire pour certaines IA.
- Mise en place d’analyses d’impact avant la mise sur le marché de certaines IA critiques.
- Obligation de déclaration aux autorités des nouveaux risques identifiés.
Quelles conséquences pour les entreprises et fournisseurs d’IA ?
Pour les entreprises et développeurs d’intelligence artificielle, l’IA Act implique de nouvelles responsabilités. Les fournisseurs d’IA devront notamment :
- Garantir la transparence de leurs modèles et indiquer clairement si un contenu a été généré par IA.
- Limiter la collecte de données personnelles et éviter tout usage abusif.
- Se conformer aux obligations de surveillance et de déclaration imposées par l’Union européenne.
L’Autorité Européenne de l’IA, qui sera chargée de superviser l’application du règlement, doit encore préciser certaines modalités d’application via des lignes directrices attendues dans les prochains mois.
Une première mondiale qui inspire d’autres régulations
L’IA Act fait figure de pionnier en matière de régulation de l’intelligence artificielle. Si certains estiment que ces règles risquent de freiner l’innovation, d’autres voient dans cette législation un modèle à suivre pour éviter les dérives de l’IA.
D’ailleurs, plusieurs pays comme les États-Unis, le Canada et le Royaume-Uni travaillent déjà sur leurs propres réglementations inspirées du modèle européen.
En attendant, les entreprises de la tech vont devoir adapter leurs systèmes pour se conformer aux nouvelles exigences européennes. Le règlement ne s’applique qu’aux IA utilisées sur le territoire de l’Union, mais il pourrait avoir un impact global, forçant même les géants de la tech à revoir certaines pratiques à l’échelle mondiale.
Mots-clés :