L'IA ACT : ce que les entreprises doivent savoir pour se mettre en conformité
Le Règlement EuropĂ©en sur l’Intelligence Artificielle (IA ACT) est progressivement entrĂ© en vigueur Ă partir du 1er aoĂ»t 2024. Ce règlement vise Ă encadrer l’utilisation de l’intelligence artificielle afin de protĂ©ger les droits fondamentaux, la santĂ© et la sĂ©curitĂ© des individus. Il Ă©tablit un cadre pour classer les systèmes d’IA en fonction de leur niveau de risque et impose des obligations aux entreprises utilisant ces technologies.
Les 4 niveaux de risques établis :
Interdiction des systèmes d’IA jugĂ©s trop dangereux, comme ceux utilisant des techniques subliminales ou exploitant des vulnĂ©rabilitĂ©s spĂ©cifiques.
Les systèmes d’IA dans cette catĂ©gorie doivent respecter des exigences strictes en matière de transparence, de sĂ©curitĂ©, et de surveillance humaine. Les exemples incluent les systèmes d’IA utilisĂ©s dans le recrutement, l’Ă©ducation ou l’application de la loi.
Les entreprises doivent informer les utilisateurs lorsqu’ils interagissent avec un système d’IA. Par exemple, les chatbots doivent clairement indiquer qu’ils ne sont pas humains.
Ce niveau inclut les systèmes d’IA avec peu ou pas de risques pour les droits fondamentaux ou la sĂ©curitĂ©, comme les filtres anti-spam.
Quelles sont les obligations pour les entreprises ?
Les entreprises doivent :
- Évaluer le Niveau de Risque de leurs systèmes d’IA.
- Déclarer les Systèmes à Risque Élevé auprès de la Commission Européenne.
- Assurer la Transparence et informer les utilisateurs sur l’utilisation de l’IA.
- Mettre en Place des Mécanismes de Surveillance pour garantir la conformité continue avec les réglementations.
« En fonction du niveau de risque associé, l’entreprise devra mettre en place des formalités en termes de suivi, de supervision humaine de la machine, de publication des sources (notamment pour les images générées par l’IA) … Pour cela, le Chief Data Officer devra travailler main dans la main avec le Data Management Officer », poursuit Dominique Monéra
Un calendrier devra être respecté :
- Le 2 février 2025, les IA présentant des risques inacceptables seront interdites.
- Le 2 août 2025, le règlement s’appliquera aux modèles d’IA à usage général (comme GPT4). A cette date les autorités au sein des Etats membres, relais de la Commission européenne, seront nommées.
- Le 2 Août 2026, toutes les règles du règlement deviendront applicables, en particulier l’application des règles relatives IA à haut risque dans les domaines de la biométrie, des infrastructures critiques, de l’éducation, de l’emploi, de l’accès aux services publics essentiels, de l’application de la loi, de l’immigration et de l’administration de la justice. Toutefois, une partie des systèmes d’IA à haut risque comme les jouets, les équipements radio, les dispositifs médicaux de diagnostic in vitro, la sécurité de l’aviation civile et les véhicules agricoles, bénéficieront d’une année supplémentaire pour se mettre en conformité le 2 août 2027.
Quelles sont les sanctions et les conséquences ?
Les entreprises qui ne se conformeront pas Ă l’IA Act risquent des sanctions sĂ©vères, y compris des amendes pouvant atteindre 7 % du chiffre d’affaires, ou bien une amende de 35 millions d’euros.
L’IA Act reprĂ©sente une Ă©tape cruciale pour encadrer l’utilisation de l’intelligence artificielle en Europe. Les entreprises doivent se prĂ©parer dès maintenant pour se conformer aux nouvelles rĂ©glementations, en Ă©valuant leurs systèmes, en formant leurs Ă©quipes et en adoptant des pratiques de transparence et de surveillance.
Bibliographie
HELLIO, M. (2024, juillet 25). L’IA Act en 6 questions : comment mettre votre entreprise en conformité. Récupéré sur HelloWork Place: https://www.helloworkplace.fr/ia-act-questions-entreprises/