IA Act : vers une intelligence artificielle responsable pour les entreprises 

Qu’est-ce que l’IA Act ? 

L’IA Act est une législation européenne qui encadre le développement et l’usage de l’IA au sein de l’UE. Toute personne morale (entreprises, associations, administrations, etc.) qui fournit, distribue ou déploie des systèmes ou modèles d’IA est directement concernée par cette nouvelle réglementation. L’objectif ? Assurer la sécurité, la transparence et l’éthique des systèmes d’IA tout en favorisant l’innovation. 

Adopté en 2024, l’IA Act entre en vigueur progressivement. Les premières obligations, concernant les systèmes à haut risque, sont appliquées depuis le 2 février 2025. D’ici 2027, toutes les dispositions de la réglementation seront applicables. 

Une classification des systèmes d’IA selon leur niveau de risque 

L’IA Act classe les systèmes d’IA en quatre catégories : 

  • Risque inacceptable : interdiction stricte des IA pouvant menacer la sécurité et les droits fondamentaux.
    Par exemple : notation des individus par le gouvernement, détection et utilisation des émotions en entreprise, jouets avec assistance vocale incitant à des comportements dangereux…
  • Risque limité : exigences de transparence pour informer les utilisateurs.
    Par exemple : chatbots, IA conversationnelles. 
  • Risque minimal : absence de restrictions spécifiques pour les IA ne présentant pas de risque significatif.
    Par exemple : filtres anti-spam, les IA dans les jeux vidéo. 

Cette approche cherche à équilibrer innovation et protection des citoyens. Mais comment cette nouvelle réglementation s’articule-t-elle avec le RGPD (le Règlement Général sur la Protection des Données) ? 

IA Act et RGPD : quelles différences ? 

Bien que complémentaires, ces deux règlements ont des objectifs distincts : 

  • Le RGPD protège les données personnelles et leur traitement, en plaçant l’individu et ses droits au cœur de la réglementation.  
  • L’IA Act encadre, quant à lui, plus largement l’ensemble des systèmes d’IA et leurs usages, en mettant l’accent sur les biens et services.  

Cependant, ils partagent des principes communs : 

  • Protection des droits fondamentaux : respect de la dignité humaine, vie privée, non-discrimination. 
  • Transparence : explication du fonctionnement des systèmes d’IA (IA Act), informations sur l’utilisation des données personnelles aux personnes concernées (RGPD). 
  • Responsabilité : contrôles, audits, obligation de conformité pour les entreprises et mise en place de mesures appropriées pour atténuer les risques associés. 

Quelles conséquences pour les entreprises ? 

Toutes les entreprises qui utilisent, fournissent ou déploient des IA sont concernées par l’IA Act, mais les obligations varient en fonction de leur taille et leur activité. Cette réglementation est particulièrement stricte pour les systèmes d’IA classés à « risque élevé ». 

Pour les acteurs majeurs du numérique avec des « risques élevés », il faut notamment : 

  • Fournir des informations détaillées sur les algorithmes et les données utilisées. 
  • Mettre en place des contrôles et audits réguliers. 
  • Rédiger une déclaration de conformité. 
  • Garantir un contrôle humain sur les décisions automatisées. 
  • Assurer la robustesse, l’exactitude et la cybersécurité des modèles déployés. 

En ce qui concerne les PME/TPE, les conséquences de l’IA Act sont moins importantes : 

  • Vérifier la conformité des fournisseurs : s’assurer que les outils IA respectent la réglementation. 
  • Se mettre en conformité progressivement : adapter leurs pratiques pour respecter les obligations. 
  • Saisir des opportunités de marché : une conformité rapide peut devenir un atout concurrentiel en renforçant la confiance des clients. 

L’IA Act ne freine pas l’innovation mais vise à garantir un usage éthique et sécurisé de l’IA.

Comment s’y préparer ? 

Dès maintenant, les entreprises qui utilisent l’IA peuvent : 

  1. Cartographier les usages de l’IA : identifier les outils utilisés et évaluer leur niveau de risque. 
  1. Mettre en place une gouvernance IA : désigner un responsable et établir des règles internes. 
  1. Former et sensibiliser les équipes aux nouvelles obligations. 
  1. Travailler avec des fournisseurs conformes aux normes européennes. 

Et après ? L’avenir de l’IA en Europe 

Le Sommet pour l’action sur l’IA, qui s’est tenu en février à Paris, illustre l’importance croissante de ces discussions. L’IA Act n’est qu’un premier pas : de nouvelles réglementations pourraient voir le jour à mesure que l’IA évolue. Pour les entreprises, s’adapter à ces règles est une opportunité : garantir la transparence et la conformité renforce la confiance des clients et améliore leur image de marque. 

Le saviez-vous ? Chez macompta.fr, nous avons récemment développé RICO, un chatbot intelligent qui accompagne les utilisateurs sur la prise en main de nos logiciels de gestion. Lorsqu’une question lui est posée, RICO cherche parmi toutes les FAQ de notre centre d’aide et sur nos articles de blog. Gain de temps garanti pour l’utilisateur, dans le respect de la règlementation !