🚀 L’IA Act : Ce que les entreprises doivent savoir ! 🚀

L'IA ACT : ce que les entreprises doivent savoir pour se mettre en conformité

Le Règlement EuropĂ©en sur l’Intelligence Artificielle (IA ACT) est progressivement entrĂ© en vigueur Ă  partir du 1er aoĂ»t 2024. Ce règlement vise Ă  encadrer l’utilisation de l’intelligence artificielle afin de protĂ©ger les droits fondamentaux, la santĂ© et la sĂ©curitĂ© des individus. Il Ă©tablit un cadre pour classer les systèmes d’IA en fonction de leur niveau de risque et impose des obligations aux entreprises utilisant ces technologies.

Les 4 niveaux de risques établis :

Interdiction des systèmes d’IA jugĂ©s trop dangereux, comme ceux utilisant des techniques subliminales ou exploitant des vulnĂ©rabilitĂ©s spĂ©cifiques.

Les systèmes d’IA dans cette catĂ©gorie doivent respecter des exigences strictes en matière de transparence, de sĂ©curitĂ©, et de surveillance humaine. Les exemples incluent les systèmes d’IA utilisĂ©s dans le recrutement, l’Ă©ducation ou l’application de la loi.

Les entreprises doivent informer les utilisateurs lorsqu’ils interagissent avec un système d’IA. Par exemple, les chatbots doivent clairement indiquer qu’ils ne sont pas humains.

Ce niveau inclut les systèmes d’IA avec peu ou pas de risques pour les droits fondamentaux ou la sĂ©curitĂ©, comme les filtres anti-spam.

Quelles sont les obligations pour les entreprises ?

Les entreprises doivent :

  • Évaluer le Niveau de Risque de leurs systèmes d’IA.
  • DĂ©clarer les Systèmes Ă  Risque ÉlevĂ© auprès de la Commission EuropĂ©enne.
  • Assurer la Transparence et informer les utilisateurs sur l’utilisation de l’IA.
  • Mettre en Place des MĂ©canismes de Surveillance pour garantir la conformitĂ© continue avec les rĂ©glementations.

« En fonction du niveau de risque associé, l’entreprise devra mettre en place des formalités en termes de suivi, de supervision humaine de la machine, de publication des sources (notamment pour les images générées par l’IA) … Pour cela, le Chief Data Officer devra travailler main dans la main avec le Data Management Officer », poursuit Dominique Monéra

Un calendrier devra être respecté :

  • Le 2 fĂ©vrier 2025, les IA prĂ©sentant des risques inacceptables seront interdites.
  • Le 2 aoĂ»t 2025, le règlement s’appliquera aux modèles d’IA Ă  usage gĂ©nĂ©ral (comme GPT4). A cette date les autoritĂ©s au sein des Etats membres, relais de la Commission europĂ©enne, seront nommĂ©es.
  • Le 2 AoĂ»t 2026, toutes les règles du règlement deviendront applicables, en particulier l’application des règles relatives IA Ă  haut risque dans les domaines de la biomĂ©trie, des infrastructures critiques, de l’éducation, de l’emploi, de l’accès aux services publics essentiels, de l’application de la loi, de l’immigration et de l’administration de la justice. Toutefois, une partie des systèmes d’IA Ă  haut risque comme les jouets, les Ă©quipements radio, les dispositifs mĂ©dicaux de diagnostic in vitro, la sĂ©curitĂ© de l’aviation civile et les vĂ©hicules agricoles, bĂ©nĂ©ficieront d’une annĂ©e supplĂ©mentaire pour se mettre en conformitĂ© le 2 aoĂ»t 2027.
Quelles sont les sanctions et les conséquences ?

Les entreprises qui ne se conformeront pas Ă  l’IA Act risquent des sanctions sĂ©vères, y compris des amendes pouvant atteindre 7 % du chiffre d’affaires, ou bien une amende de 35 millions d’euros.

L’IA Act reprĂ©sente une Ă©tape cruciale pour encadrer l’utilisation de l’intelligence artificielle en Europe. Les entreprises doivent se prĂ©parer dès maintenant pour se conformer aux nouvelles rĂ©glementations, en Ă©valuant leurs systèmes, en formant leurs Ă©quipes et en adoptant des pratiques de transparence et de surveillance.

Bibliographie

HELLIO, M. (2024, juillet 25). L’IA Act en 6 questions : comment mettre votre entreprise en conformité. Récupéré sur HelloWork Place: https://www.helloworkplace.fr/ia-act-questions-entreprises/