in

L’IA Act, la réglementation de l’UE pour une intelligence artificielle encadrée

Le 1er août 2024 marque un tournant historique avec l’entrée en vigueur du règlement européen sur l’intelligence artificielle, connu sous le nom de IA Act. Ce texte inédit au niveau mondial entend encadrer le développement et l’utilisation de l’IA en Europe tout en encourageant l’innovation. Ursula von der Leyen, présidente de la Commission européenne, décrit ce cadre comme un moyen de promouvoir une IA à la fois innovante et digne de confiance. L’objectif est de soutenir les PME et les jeunes entreprises européennes dans la création de solutions d’IA de pointe.

Application progressive de la législation IA Act.

Bien que le règlement entre en vigueur ce jour, ses dispositions principales s’appliqueront réellement à partir de 2026. Toutefois, certaines règles seront contraignantes dès 2025. Le IA Act adopte une approche « fondée sur le risque » pour réguler les systèmes d’intelligence artificielle. Les systèmes considérés comme à faible risque seront soumis à des obligations minimales de transparence. En revanche, les systèmes à haut risque, tels que ceux utilisés dans les infrastructures critiques, l’éducation, les ressources humaines ou le maintien de l’ordre, devront répondre à des exigences strictes avant leur autorisation sur le marché européen.


Exigences renforcées pour les systèmes à haut risque

Les systèmes d’IA à haut risque devront satisfaire à plusieurs exigences avant leur déploiement. Ces exigences comprennent le contrôle humain, l’élaboration d’une documentation technique, et la mise en place d’un système de gestion des risques. Les interdictions seront limitées et concerneront principalement les applications contraires aux valeurs européennes, telles que les systèmes de notation sociale ou la surveillance de masse.

Sanctions et interdictions à venir

Les interdictions prévues entreront en vigueur le 2 février 2025, avec des amendes pouvant atteindre 7 % du chiffre d’affaires mondial en cas de non-conformité. Les entreprises doivent donc se préparer dès maintenant pour éviter ces sanctions. Les règles spécifiques s’appliqueront également aux IA génératives, comme ChatGPT d’OpenAI, afin de garantir la qualité des données et le respect des droits d’auteur. Les contenus générés par ces IA devront être clairement identifiés pour prévenir les manipulations de l’opinion publique.

Le calendrier de mise en œuvre

Le processus d’adoption du IA Act a été long et complexe. Après son adoption par le Parlement européen le 21 mai 2024, les Vingt-Sept ont conclu un accord sur ce texte en décembre 2023, malgré des inquiétudes quant à un encadrement trop strict. Le calendrier de mise en œuvre est désormais établi :

  • 1er août 2024 : Entrée en vigueur du IA Act
  • 1er février 2025 : Interdiction des systèmes d’IA à risque inacceptable
  • 1er août 2025 : Application des réglementations pour les modèles d’IA à usage général et des principes de gouvernance de l’Office AI
  • Été 2026 : Application complète de toutes les dispositions du règlement

La création de l’Office AI Act

Pour faciliter la mise en œuvre de cette législation, la Commission européenne a établi l’Office AI. Cet organe de contrôle sera responsable de la surveillance de la conformité des développeurs de modèles d’IA. Il disposera des pouvoirs nécessaires pour effectuer des évaluations, enquêter sur les risques systémiques et recueillir les plaintes des fournisseurs. Le site officiel de l’IA Act propose un vérificateur de conformité pour aider les entreprises à comprendre leurs obligations légales et à se conformer à la législation.

Définition des systèmes d’IA et exigences spécifiques

Le IA Act classe les systèmes d’intelligence artificielle en fonction des risques qu’ils présentent pour la société. Cette classification permet de cibler les régulations de manière proportionnée. Les systèmes sont regroupés en trois catégories :

IA à risque inacceptable :

Ces systèmes, tels que les notations sociales ou la surveillance de masse, sont totalement interdits en raison de leur incompatibilité avec les valeurs européennes fondamentales.

IA à haut risque :

Les systèmes dans cette catégorie, utilisés dans des domaines critiques comme les infrastructures, l’éducation ou la justice, doivent répondre à des exigences strictes, incluant la mise en place de contrôles humains et la documentation technique complète.

IA à risque limité :

Ces systèmes, tels que les chatbots ou les deep fakes, nécessitent une transparence accrue, mais les exigences sont moins sévères que pour les IA à haut risque. Les utilisateurs doivent être informés qu’ils interagissent avec une IA.

Obligations des fournisseurs et des déployeurs

Les obligations diffèrent selon que l’on soit fournisseur ou déployeur d’un système d’IA :

  • Fournisseurs :

Ceux-ci doivent fournir une documentation technique détaillée et des instructions d’utilisation,. En outre ils doivent se conformer aux directives sur les droits d’auteur. Les modèles à usage général sous licence libre doivent seulement respecter les droits d’auteur et publier un résumé des données de formation, sauf en cas de risque systémique.

  • Déployeurs :

Pour ceux qui utilisent les systèmes d’IA fournis, ils doivent veiller à la conformité des systèmes. En outre ils doivent s’adapter aux exigences de transparence et de sécurité.

Les règles pour les IA génératives

Les IA génératives, comme ChatGPT, sont soumises à des règles spécifiques pour garantir la qualité des données et le respect des droits d’auteur. Les contenus générés, tels que les sons, images et textes, doivent être clairement identifiés comme tels. Cela vise à prévenir les manipulations et les désinformations.

Mise en place, rôle et pouvoirs de l’Office AI Act

L’Office AI, créé par la Commission européenne, est l’organisme chargé de superviser la conformité des systèmes d’IA avec le IA Act. Ses responsabilités incluent :

  • Évaluations et enquêtes : L’Office AI effectuera des évaluations régulières et enquêtera sur les risques systémiques, s’appuyant sur des rapports d’experts indépendants.
  • Gestion des plaintes : Il recueillera et traitera les plaintes concernant des violations des règles par les fournisseurs ou déployeurs.
  • Vérificateur de conformité : Un outil interactif permet aux entreprises de vérifier leur conformité avec la législation et de rechercher des informations spécifiques.

Un avenir en constante évolution

Le IA Act, bien qu’entrée en vigueur en août 2024, continue d’évoluer avec des ajustements progressifs. La législation met en place un cadre flexible pour s’adapter aux innovations rapides dans le domaine de l’intelligence artificielle. Les entreprises doivent rester informées des évolutions réglementaires pour garantir leur conformité et anticiper les futures obligations.

Impact sur le secteur de l’IA

L’IA Act aura comme vocation de transformer le paysage de l’intelligence artificielle en Europe. En outre, il vise à promouvoir une IA éthique et responsable tout en soutenant l’innovation. Le cadre réglementaire devrait renforcer la confiance du public et des entreprises dans les technologies d’IA. En l’occurrence, tout en prévenant les dérives potentielles.

Voir aussi: Technologie Deep fake : attention aux fake news

Pour conclure, le IA Act marque une étape majeure dans la régulation de l’intelligence artificielle au niveau mondial. En établissant des règles claires et proportionnées, l’Union européenne cherche à encadrer l’innovation. Notamment, tout en protégeant les valeurs fondamentales de la société.

What do you think?

robotaxi Tesla

Elon Musk prépare le grand dévoilement du robotaxi Tesla le 10 octobre 2024

Coupe du monde d'Esport 2024 un tournoi qui captive les fans

Coupe du monde d’Esport 2024 : un tournoi qui captive les fans