Gouvernance des agents IA : en finir avec l'approche sparadrap que dénoncent les juristes
Coller un contrôle après coup sur un agent IA déjà déployé, c'est comme enquêter sur des crashs d'avion au lieu de construire un cockpit qui interdit les manœuvres dangereuses. C'est l'analogie martelée par trois avocats de Norton Rose Fulbright dans une analyse publiée le 13 avril 2026, qui interpelle directement DPO et juristes compliance sur la manière dont les organisations encadrent leurs déploiements d'IA agentique.
Ce qui se joue : le réflexe « sparadrap » contre la gouvernance by design
Les auteurs partent d'un constat frappant : la plupart des approches actuelles de gouvernance de l'IA agentique consistent à superposer des contrôles a posteriori à des systèmes déjà en production, plutôt qu'à intégrer la gouvernance dans le code même. Ils réagissent notamment aux positions d'un éditeur de sécurité IA qui, pour vendre ses outils, affirmait qu'un agent IA « n'a pas de comportements fixes », « peut appeler des API qui ne font partie d'aucun workflow prédéfini » et « décide au moment de l'exécution quels outils utiliser ».
Pour les juristes américains, chacune de ces affirmations est un signal rouge. Un agent IA en environnement professionnel doit avoir des comportements fixes, codifiés en logique statique. Ses workflows doivent être prédéfinis, et les API qu'il peut appeler doivent être scopées à l'avance. Laisser un endpoint probabiliste — c'est-à-dire un modèle de langage — déclencher librement des outils revient à accepter que, statistiquement, le système finira par être exploité ou par enchaîner des erreurs silencieuses.
Pourquoi ça compte pour les DPO européens
L'enjeu dépasse largement les États-Unis. L'AI Act européen impose aux fournisseurs et déployeurs de systèmes d'IA à haut risque de démontrer la robustesse, la traçabilité et le contrôle humain de leurs systèmes — autant de notions qui s'effondrent si la gouvernance est bricolée après coup. Les DPO qui veulent cartographier leurs obligations peuvent se référer à notre guide complet de conformité à l'AI Act, qui détaille les exigences applicables dès 2026.
Cette question n'est pas théorique. En France, la CNIL a déjà sanctionné plusieurs acteurs qui avaient délégué des décisions à des agents IA sans contrôle humain réel, comme nous l'avons documenté dans notre veille sur la responsabilité juridique des agents IA. L'article 22 du RGPD interdit déjà, par défaut, les décisions entièrement automatisées produisant des effets juridiques. Et la question des autorités compétentes pour l'IA reste un sujet mouvant, que nous avons cartographié dans notre guide sur les autorités compétentes en France pour l'AI Act.
Les sept questions à poser avant chaque déploiement d'agent IA
La contribution la plus opérationnelle de Norton Rose tient en une checklist que les auteurs recommandent de soumettre à chaque composant d'un système d'IA :
- Qu'est-ce que je fais confiance au système pour accomplir, et pourquoi ?
- Comment limiter cette confiance — et donc le risque ?
- Que le système est-il autorisé à faire ?
- Que lui est-il interdit ?
- Sur quelles données agit-il, et quels sont mes droits et limitations sur ces données ?
- Comment le système fait-il respecter ces réponses (contrôles, logique statique) ?
- Quel est le risque de dérive du périmètre (« scope creep »), et comment le surveiller dans le temps ?
Cette grille fonctionne particulièrement bien lorsqu'elle est intégrée en amont d'une AIPD : elle force à expliciter le périmètre d'action avant de le documenter, et donc avant qu'il ne soit trop tard pour le restreindre. Pour les DPO qui doivent aussi convaincre leurs équipes métier, nos cinq bonnes pratiques de sensibilisation à l'IA offrent un point de départ concret.
Ce que Leto pense de cette approche
Cette analyse colle à ce que nous observons dans nos missions DPO : la plupart des incidents liés à des agents IA ne viennent pas d'une IA « trop puissante » mais d'un périmètre d'action jamais discuté. Quand les équipes produit laissent un agent décider librement de ses outils, la question n'est plus « est-ce que ça va déraper ? » mais « quand ? ». Les DPO et juristes compliance ne sont pas les gendarmes du « non » : ils sont la première ligne de défense pour forcer l'organisation à écrire ce qui est autorisé, ce qui ne l'est pas, et à l'inscrire dans la logique statique du système. Ceux qui attendent que l'AI Act entre pleinement en vigueur pour s'y mettre auront une dette technique et juridique difficile à rembourser.
Sources :

