À retenir
- Un agent IA est encadré par RGPD + AI Act simultanément. Sanctions cumulables jusqu'à 35 M€ ou 7 % du CA mondial selon la Commission européenne.
- L'article 22 du RGPD interdit les décisions entièrement automatisées à impact significatif : la validation humaine doit être effective, pas formelle.
- Au 2 août 2026, les systèmes d'IA à haut risque (RH, crédit, santé, justice) deviennent pleinement opposables avec documentation, supervision et marquage CE.
- Hébergement Europe (Scaleway, OVH, AWS Frankfurt) recommandé par défaut. France 100 % (SecNumCloud) requis pour santé, défense, public et finance régulée.
Dans cet article
Cet article fait le tour complet : ce que dit la loi, qui s'applique à vous, quelles sont les obligations concrètes, les sanctions possibles, et comment concevoir un agent IA conforme dès le départ. Pour la méthode complète de création d'un agent IA, lisez notre guide comment créer un agent IA pour son entreprise. Pour explorer notre offre dédiée, voir aussi la page agents IA REDHOUSE.
Pourquoi un agent IA tombe sous le coup du RGPD ET de l'AI Act
En France et dans l'Union européenne, un agent IA déployé dans une entreprise est encadré par deux textes complémentaires. Le RGPD (Règlement général sur la protection des données), en vigueur depuis 2018, s'applique dès que l'agent traite des données personnelles, ce qui est presque toujours le cas dès qu'il interagit avec des clients, des prospects ou des collaborateurs. L'AI Act (Règlement européen sur l'intelligence artificielle), entré en vigueur le 1er août 2024 et progressivement appliqué jusqu'au 2 août 2026, s'applique à tous les systèmes d'intelligence artificielle utilisés sur le marché européen. Selon la CNIL, ces deux textes sont complémentaires et peuvent s'appliquer simultanément. La CNIL est désignée comme autorité coordinatrice en France pour l'AI Act, articulant ses compétences historiques en protection des données avec les nouvelles exigences sur l'IA. Les sanctions cumulables des deux textes peuvent atteindre, dans les cas les plus graves, jusqu'à 35 millions d'euros ou 7 % du chiffre d'affaires mondial, selon la Commission européenne.
L'AI Act européen : ce que votre PME doit retenir
Le calendrier d'application
L'application est progressive. Voici les dates clés à retenir pour 2026.
Depuis le 2 février 2025 : interdictions des pratiques considérées comme inacceptables (manipulation subliminale, scoring social, surveillance biométrique de masse).
Depuis le 2 août 2025 : obligations spécifiques aux fournisseurs de modèles d'IA à usage général (GPAI) comme GPT, Claude ou Mistral. Documentation technique, transparence sur les données d'entraînement, conformité au droit d'auteur.
À partir du 2 août 2026 : application complète aux systèmes d'IA à haut risque (recrutement, crédit, santé, justice, biométrie, éducation, infrastructures critiques). Les obligations pour ces systèmes deviennent pleinement opposables. C'est l'échéance qui concerne le plus grand nombre d'entreprises selon la Commission européenne.
À noter
Un report partiel est en discussion fin avril 2026 selon Tech Insider, mais il ne concernerait que les systèmes à haut risque et ne change rien aux obligations déjà en vigueur. Anticipez sans attendre.
Les 4 niveaux de risque
L'AI Act classe tous les systèmes d'IA dans quatre catégories.
Risque inacceptable: systèmes interdits. Manipulation subliminale, scoring social à la chinoise, surveillance biométrique de masse dans l'espace public. Ces pratiques sont bannies depuis février 2025.
Risque élevé : systèmes fortement réglementés. Concerne les domaines listés en annexe III du règlement : RH (présélection de candidats, évaluation des salariés), accès aux services essentiels (crédit, assurance), application de la loi, immigration, justice, infrastructures critiques, santé, éducation. Ces systèmes nécessitent une documentation technique complète, une évaluation de conformité, le marquage CE pour les fournisseurs, et une supervision humaine effective.
Risque limité: obligations de transparence. Les chatbots, les agents conversationnels, les systèmes de génération de contenu doivent informer clairement les utilisateurs qu'ils interagissent avec une IA. Cette obligation est absolue : déployer un agent vocal qui prétend être un humain alors que le client demande s'il parle à une machine est interdit.
Risque minimal: aucune obligation spécifique. Filtres anti-spam, suggestions de contenu, jeux vidéo. Liberté d'usage.
Les sanctions prévues
Selon Tech Insider et la Commission européenne, les amendes prévues sont parmi les plus élevées du droit européen.
- Pour une violation des pratiques interdites : jusqu'à 35 millions d'euros ou 7 % du CA mondial.
- Pour une non-conformité sur un système à haut risque : jusqu'à 15 millions d'euros ou 3 % du CA mondial.
- Pour un manquement aux obligations de transparence : jusqu'à 7,5 millions d'euros ou 1 % du CA mondial.
Pour une PME, même un pourcentage apparemment modeste peut représenter une menace existentielle. La CNIL hérite des pouvoirs d'enquête et de sanction nécessaires pour appliquer ces amendes en France.
L'article 22 du RGPD : décisions automatisées et droit à l'explication
L'article 22 du RGPD est probablement la disposition la plus critique pour les agents IA en 2026. Il interdit les décisions entièrement automatisées qui produisent des effets juridiques ou affectent significativement une personne, sauf consentement explicite ou nécessité contractuelle.
Concrètement, un agent IA ne peut pas, seul et sans intervention humaine, refuser un crédit, licencier un salarié, rompre un contrat, infliger une sanction. Il peut préparer la décision, la recommander, exécuter des actions non significatives. Mais une validation humaine reste requise sur les actions à enjeu.
Cette disposition est régulièrement utilisée par la CNIL. En 2024-2025, une grande plateforme française de livraison a été sanctionnée pour avoir confié à un algorithme la rupture de contrats avec ses livreurs sans intervention humaine réelle. Le cas Air Canada (2024) au Canada a établi que l'entreprise est responsable de toutes les informations diffusées par ses agents IA, même quand ils inventent des politiques inexistantes.
L'article 22 s'accompagne d'un droit à l'explication. Toute personne soumise à une décision automatisée peut demander à l'entreprise d'expliquer la logique du système, les critères utilisés et les conséquences pour elle.
Les obligations concrètes pour une PME qui déploie un agent IA
Selon la CNIL et le cabinet Aiacto, une PME qui déploie un agent IA en France en 2026 doit respecter sept obligations concrètes. Premièrement, identifier son statut au sens de l'AI Act : déployeur (vous utilisez l'agent dans votre activité) ou fournisseur (vous le mettez sur le marché pour des tiers). Deuxièmement, informer les utilisateurs finaux qu'ils interagissent avec un système d'IA, en temps réel et de manière intelligible. Troisièmement, assurer une supervision humaine effective sur les décisions significatives : pas de validation purement formelle. Quatrièmement, former les équipes à l'IA : c'est l'obligation d'AI literacy de l'article 4, déjà en vigueur. Cinquièmement, documenter le système : architecture, données utilisées, capacités, limites, cas d'usage prévus. Sixièmement, tenir à disposition les informations nécessaires en cas de contrôle CNIL : journaux d'activité, traçabilité des décisions, mécanismes de recours. Septièmement, respecter les instructions du fournisseur du modèle (Anthropic, OpenAI, Mistral) et s'assurer que les conditions contractuelles sont conformes (notamment le no-training sur vos données).
4 cas réels de sanctions qui doivent vous alerter
Selon une analyse de Frédéric Charles publiée sur ZDNet en avril 2026 et reprise par le cabinet Leto, quatre affaires récentes posent la jurisprudence européenne sur la responsabilité des agents IA.
Cas Amazon (2018, mais toujours cité)
Le système de tri de CV d'Amazon, nourri de dix ans de recrutements majoritairement masculins, avait appris à pénaliser les candidatures féminines. L'outil a été retiré, mais l'affaire a consacré la responsabilité de l'entreprise sur la qualité de ses données d'entraînement. Une PME française qui déploierait un agent de tri de CV en 2026 sans audit de biais s'expose au même type de sanction sous l'AI Act.
Cas Uber (2024)
La justice européenne a confirmé que Uber est responsable de la désactivation des comptes de chauffeurs effectuée par son algorithme, même quand un humain « valide » la décision en aveugle. La validation humaine doit être effective, pas formelle.
Cas Air Canada (2024)
Le chatbot d'Air Canada a inventé une politique de remboursement inexistante par « empathie » avec un client en deuil. La cour canadienne a tranché : l'entreprise est responsable de toutes les informations diffusées sur ses canaux, qu'elles émanent d'un humain ou d'un agent automatisé.
Cas plateforme française de livraison (2024-2025)
Une grande plateforme a été sanctionnée par la CNIL pour avoir confié à un algorithme la rupture de contrats avec ses livreurs sans intervention humaine réelle. Application directe de l'article 22 du RGPD.
L'argument « c'est l'IA » ne tient plus
L'argument « ce n'est pas moi, c'est mon IA » ne tient plus en justice européenne en 2026. L'entreprise est responsable des décisions de ses agents IA.
Chez REDHOUSE à Poitiers (Vienne 86), nous accompagnons artisans, auto-entrepreneurs et TPE sur la conformité RGPD et AI Act de votre projet d'agent IA. Contactez-nous pour un échange gratuit de 30 minutes — par appel ou par message, comme vous préférez.
Comment concevoir un agent IA conforme dès le départ
Cinq principes guident la conception d'un agent IA conforme RGPD et AI Act, à appliquer dès la phase de design.
Privacy by design
Limitez les données traitées au strict nécessaire (principe de minimisation). N'envoyez pas l'intégralité d'un mail au modèle si seule une partie est utile. Anonymisez les données quand c'est possible.
Supervision humaine effective
Définissez explicitement les actions critiques qui exigent une validation humaine, et faites en sorte que cette validation soit réelle (pas un clic automatique). Loguez chaque décision avec son contexte.
Transparence
Affichez clairement à l'utilisateur qu'il interagit avec une IA, dès le premier message. Tenez à disposition une politique d'information sur le fonctionnement de l'agent.
Traçabilité
Conservez des logs détaillés de chaque décision : entrées, raisonnement, sortie, validation humaine. Ces logs sont indispensables en cas de contrôle ou de contentieux.
Documentation
Maintenez à jour une fiche technique de l'agent : objectif, périmètre, données utilisées, modèle sous-jacent, hébergement, garde-fous, mises à jour. Cette documentation est attendue par la CNIL en cas de contrôle.
Chez REDHOUSE, ces cinq principes sont intégrés dans tous nos déploiements par défaut. La convention de traitement de données et la documentation technique sont fournies systématiquement avec chaque projet. Voir aussi nos garanties sur la page agents IA REDHOUSE.
Hébergement : Europe, France ou cloud américain ?
Le choix de l'hébergement d'un agent IA en 2026 a des implications RGPD et AI Act directes. Trois options dominent. L'hébergement Europe (Scaleway, OVH, AWS Frankfurt, Microsoft Azure Europe) garantit que les données restent sur le territoire de l'Union, ce qui simplifie la conformité RGPD. C'est l'option recommandée par défaut pour les PME françaises selon la CNIL. L'hébergement 100 % France (Scaleway, OVH, hébergeurs souverains certifiés SecNumCloud) est requis pour les secteurs régulés (santé, défense, public, finance) ou imposé par certains contrats clients exigeants. L'hébergement cloud américain (AWS, GCP, Azure US) reste possible mais nécessite un cadre contractuel précis : Standard Contractual Clauses, mentions explicites dans la convention de traitement, et alerte si les données sont sensibles. Depuis le Cloud Act américain, les transferts hors UE sont à manier avec précaution. Mistral propose une alternative française pour les modèles de langage souverains.
Pour le détail du choix de modèle, consultez notre comparatif Claude vs GPT vs Mistral pour un agent IA d'entreprise ou notre guide tarifaire 2026.
Questions fréquentes
Mon agent IA traite-t-il des données personnelles ?
Presque certainement oui. Dès qu'un agent lit un mail (qui contient un nom, une adresse), met à jour un CRM (qui contient des contacts), interagit avec un client identifié, il traite des données personnelles au sens du RGPD. Cela déclenche les obligations classiques : information, base légale, sécurité, durée de conservation, droits des personnes.
Mes données sont-elles utilisées pour entraîner les modèles d'IA ?
Cela dépend de votre contrat avec le fournisseur. Les versions Enterprise des API d'Anthropic (Claude) et d'OpenAI (GPT) garantissent contractuellement le no-training sur vos données. Les versions grand public sont moins claires. Vérifiez systématiquement le contrat. Chez REDHOUSE, nous utilisons exclusivement les versions Enterprise.
Dois-je déclarer mon agent IA à la CNIL ?
Pas nécessairement. Une déclaration formelle n'est requise que pour certains traitements à risque élevé. En revanche, votre Registre des activités de traitement (article 30 du RGPD) doit être à jour avec une fiche dédiée au traitement opéré par l'agent. Le DPO de votre entreprise (si vous en avez un, ou un externe) peut vous accompagner.
Mon entreprise est-elle « fournisseur » ou « déployeur » ?
Selon Aiacto et la CNIL : si vous utilisez un agent IA pour les besoins propres de votre entreprise, vous êtes déployeur. Si vous proposez un produit ou service basé sur l'IA à des tiers (vos clients), vous êtes fournisseur. Le statut fournisseur impose des obligations beaucoup plus lourdes (documentation technique, marquage CE pour les systèmes à haut risque).
Que dit la CNIL sur les agents IA en 2026 ?
La CNIL a publié plusieurs fiches pratiques sur le sujet, accessibles sur cnil.fr. Elle recommande une approche intégrée RGPD + AI Act, plaide pour la privacy by design dès la conception, et a signalé qu'elle s'appuiera sur les exigences de l'AI Act pour guider et contrôler les acteurs. Sa position : la conformité n'est pas un frein à l'innovation, c'est un avantage concurrentiel.
Que faire si mon agent IA fait une erreur préjudiciable ?
Trois étapes : documenter l'erreur (logs, contexte), prévenir les personnes affectées, corriger immédiatement. Selon la directive PLD (Product Liability Directive) révisée, les logiciels d'IA sont désormais classifiés comme produits, ce qui facilite l'action en réparation des victimes. La cyber-assurance et la couverture professionnelle de votre entreprise doivent être adaptées.
Pour aller plus loin, voir comment créer un agent IA pour son entreprise ou explorer notre offre d'agents IA conformes RGPD.
Pour aller plus loin
Un agent IA conforme RGPD et AI Act ?
REDHOUSE conçoit chaque agent IA avec privacy by design, supervision humaine, hébergement Europe ou France et documentation CNIL prête. Audit gratuit 30 min.