⚖️ AI Act : ce que ça change concrètement pour votre entreprise en 2026
AI Act européen : quelles obligations concrètes pour les entreprises françaises en 2026 ? Calendrier d'application, systèmes concernés, sanctions et ce qu'il faut faire maintenant.
Date : 2025-10-25
Tags : Guide, Gouvernance IA, RGPD, Entreprise, Formation IA
Le règlement européen sur l'intelligence artificielle est entré en vigueur en août 2024. Son application se déroule par étapes jusqu'en 2027. En 2026, plusieurs obligations sont déjà actives ou le deviennent. Voici ce que ça signifie concrètement pour une entreprise française qui utilise ou déploie des outils IA.
---
## L'AI Act en une phrase
L'AI Act (Règlement UE 2024/1689) est le premier cadre légal au monde qui réglemente spécifiquement les systèmes d'intelligence artificielle selon leur niveau de risque. Il s'applique à toute entreprise qui **utilise, déploie ou commercialise** des systèmes IA dans l'Union européenne, quelle que soit sa taille ou son pays d'origine.
---
## Le calendrier d'application : ce qui est déjà actif
| Date | Ce qui entre en vigueur |
|------|-------------------------|
| Août 2024 | Entrée en vigueur du règlement |
| Février 2025 | Interdictions des IA à risque inacceptable |
| Août 2025 | Obligations de gouvernance et literacy IA |
| Août 2026 | Obligations complètes pour les systèmes IA à haut risque |
| Août 2027 | Extension aux systèmes IA intégrés dans des produits réglementés |
**En 2026, les obligations les plus impactantes pour les entreprises françaises sont déjà actives ou le deviennent en août.**
---
## Les 4 niveaux de risque : où se situe votre entreprise ?
L'AI Act classe les systèmes IA en 4 catégories selon leur niveau de risque.
**Risque inacceptable (interdit depuis février 2025)**
Systèmes de notation sociale, manipulation subliminale, reconnaissance faciale en temps réel dans les espaces publics à des fins répressives. Ces usages sont interdits sans exception.
**Haut risque (obligations lourdes actives en août 2026)**
Systèmes IA utilisés dans : recrutement et gestion RH, crédit et scoring financier, éducation et formation, infrastructures critiques, décisions judiciaires, gestion des migrations. Si vous utilisez un outil IA pour filtrer des CV, scorer des candidats ou évaluer des salariés, vous êtes dans cette catégorie.
**Risque limité (obligations de transparence)**
Chatbots, systèmes qui génèrent du contenu synthétique, outils de deepfake. L'obligation principale : informer l'utilisateur qu'il interagit avec une IA.
**Risque minimal (pas d'obligation spécifique)**
La grande majorité des outils IA utilisés en entreprise : assistants de rédaction, outils de traduction, recommandations de contenu, automatisation de processus métier avec Make ou n8n. Ces usages ne sont pas concernés par des obligations lourdes.
---
## Ce qui concerne la plupart des PME en 2026
Pour une PME qui utilise ChatGPT, Claude, Copilot ou des outils no-code avec IA, les obligations actives en 2026 sont au nombre de deux.
### Obligation 1 — La literacy IA (active depuis août 2025)
L'article 4 de l'AI Act impose aux entreprises de s'assurer que leurs employés disposent d'un **niveau suffisant de literacy IA** (compétences et connaissances sur l'IA) pour utiliser les systèmes IA de manière responsable dans leur contexte de travail.
Concrètement : vous devez être en mesure de démontrer que vos équipes qui utilisent des outils IA ont reçu une formation adaptée. Il ne s'agit pas d'une certification obligatoire mais d'une capacité à justifier d'une démarche de formation en cas de contrôle ou de litige.
C'est précisément ce que la Commission européenne a précisé en mai 2025 : un programme de formation interne documenté est la voie recommandée pour se conformer à l'article 4.
### Obligation 2 — La transparence sur les systèmes IA déployés
Si vous déployez un chatbot ou un système IA qui interagit avec des clients ou des tiers, vous devez les informer qu'ils interagissent avec une IA. Cette obligation s'applique également aux contenus générés par IA (textes, images, vidéos) qui pourraient être confondus avec du contenu humain.
---
## Ce qui concerne les entreprises qui utilisent l'IA en RH
C'est le secteur le plus exposé pour les PME. Si vous utilisez un outil IA pour :
- Filtrer automatiquement des CV
- Scorer ou classer des candidats
- Évaluer les performances des salariés
- Gérer les plannings de manière automatisée avec des critères IA
...vous êtes dans la catégorie **haut risque** et les obligations complètes s'appliquent à partir d'août 2026. Ces obligations incluent : documentation du système, évaluation de conformité, enregistrement auprès des autorités compétentes, supervision humaine obligatoire des décisions.
---
## Les sanctions
| Type de violation | Amende maximale |
|-------------------|------------------|
| Violation des interdictions (risque inacceptable) | 35 M€ ou 7% du CA mondial |
| Non-conformité aux obligations haut risque | 15 M€ ou 3% du CA mondial |
| Fourniture d'informations incorrectes | 7,5 M€ ou 1% du CA mondial |
Pour une PME, les plafonds en % du CA mondial sont généralement plus contraignants que les montants fixes. Une PME avec 5 M€ de CA peut théoriquement être sanctionnée à hauteur de 350 000 € pour une violation grave.
---
## Ce qu'il faut faire maintenant (checklist pratique)
**Pour toutes les entreprises :**
- ✅ Inventoriez les outils IA utilisés dans votre entreprise (y compris les usages non officiels : Shadow AI)
- ✅ Identifiez leur niveau de risque selon la classification AI Act
- ✅ Formez vos équipes à l'utilisation responsable de l'IA (obligation article 4 déjà active)
- ✅ Vérifiez que vos chatbots client signalent clairement qu'ils sont des IA
**Pour les entreprises utilisant l'IA en RH (haut risque) :**
- ✅ Documentez les systèmes IA impliqués dans des décisions RH
- ✅ Vérifiez l'existence d'une supervision humaine sur ces décisions
- ✅ Consultez votre DPO ou un juriste spécialisé avant août 2026
**Ce que l'AI Act ne remplace pas :** le RGPD reste pleinement applicable. L'AI Act s'y superpose sans s'y substituer. Un système IA conforme à l'AI Act peut toujours violer le RGPD sur le traitement des données personnelles.
---
## L'obligation de literacy IA : comment s'y conformer concrètement ?
L'article 4 n'impose pas de format spécifique. Il exige une démarche documentée et proportionnée à l'usage. En pratique, trois niveaux de réponse sont possibles selon votre exposition :
| Niveau d'usage IA | Réponse recommandée |
|-------------------|---------------------|
| Usage occasionnel (assistants de rédaction) | Sensibilisation interne + charte d'usage documentée |
| Usage régulier (automatisations, outils no-code IA) | Formation opérationnelle + certification RS6601 |
| Systèmes IA haut risque (RH, crédit, scoring) | Formation + documentation + audit de conformité |
TraveLearn propose des formations certifiées Qualiopi qui répondent directement à cette obligation de literacy IA, avec une traçabilité documentée (attestations, programme, évaluation) utilisable en cas de contrôle.
[Parler à un conseiller TraveLearn →](/contact)