ICO : 5 étapes contre les cyberattaques boostées à l'IA — ce que les DPO européens doivent retenir
Le 14 mai 2026, l'Information Commissioner's Office (ICO) britannique publie une guidance en cinq étapes pour préparer les organisations aux cyberattaques boostées à l'IA. Le régulateur britannique aligne sa doctrine sur celle des autorités européennes : pas de nouveau cadre, mais une exigence renforcée sur les fondamentaux — MFA, gestion des vulnérabilités, AIPD pour les outils IA à haut risque. Une lecture utile pour tout DPO français.
Ce qui s'est passé
Inquiet de la montée en puissance des attaques pilotées par l'IA, l'ICO publie un blog opérationnel signé Ian Hulme, directeur de la supervision réglementaire. Sept types de menaces sont nommées : phishing enrichi à l'IA visant collègues, clients et fournisseurs ; ingénierie sociale par deepfakes ; scan et exploitation automatisés de vulnérabilités ; malwares adaptatifs capables de contourner la détection en temps réel ; credential stuffing ciblant les mots de passe faibles ; empoisonnement de modèles d'IA (data poisoning) ; et injection indirecte de prompts.
Face à cette surface d'attaque élargie, l'ICO rappelle que les organisations doivent au minimum déployer les cinq contrôles du programme Cyber Essentials et appliquer le UK Cyber Governance Code of Practice. Mais le régulateur insiste : « des couches de défense supplémentaires sont essentielles ». Patching prioritisé selon le risque, MFA sur tous les accès distants et comptes à privilèges, mots de passe forts, audit du principe du moindre privilège, intégration des sous-traitants dans la politique d'accès, plan de réponse à incident testé, monitoring continu — la liste reprend l'arsenal classique, mais avec une intensité nouvelle face à des attaquants qui automatisent à la vitesse machine.
Pourquoi c'est important pour un DPO européen
L'ICO est l'autorité britannique post-Brexit : sa guidance n'a pas d'effet direct sur les responsables de traitement européens. Mais sa doctrine converge totalement avec celle de la CNIL, de l'EDPB et de l'ANSSI. C'est en réalité un mode d'emploi pratique pour mettre en œuvre l'article 32 du RGPD dans le contexte d'attaquants équipés d'IA générative.
Hulme conclut son article en rappelant que les organisations doivent honorer leurs obligations RGPD en déployant des « mesures techniques et organisationnelles appropriées ». Il cite explicitement la minimisation des données, la limitation de conservation, les audits réguliers, la sensibilisation du personnel — y compris à l'ingénierie sociale par IA — et la gouvernance des outils d'IA, avec analyse d'impact (AIPD) pour tout outil IA traitant des données à haut risque. Le chiffrement et la pseudonymisation y sont positionnés comme des mesures de réduction de l'impact d'une violation, ce qui rejoint la lecture de l'EDPB.
Cette continuité avec le droit européen rend la guidance directement exploitable. Côté français, l'ANSSI a déjà ouvert la voie : son bulletin CERTFR-2026-ACT-016 sur les agents IA impose, dans le même esprit, isolation, listes blanches et validation humaine pour les outils d'IA agentique. Le périmètre n'est pas le même — l'ANSSI traite des risques internes liés au déploiement d'agents IA, l'ICO ceux liés aux attaquants équipés d'IA — mais la philosophie est identique : ne pas laisser l'IA introduire de nouveaux angles morts dans la chaîne de sécurité.
Ce que ça change pour les organisations
Concrètement, un DPO ou un RSSI français peut utiliser le plan ICO comme une checklist de mise en conformité article 24 et 32 face aux menaces de 2026 :
- Cartographier les sept vecteurs IA dans le registre des risques. Le phishing classique ne suffit plus comme catégorie : il faut distinguer phishing IA, deepfake vocal/vidéo, et injection indirecte de prompts dans les outils de productivité.
- Activer la MFA partout — accès distant, comptes à privilèges, messagerie — et tester sa robustesse contre les attaques de phishing en temps réel.
- Déclencher une AIPD pour chaque outil IA à haut risque avant déploiement. C'est l'obligation RGPD et bientôt AI Act ; c'est aussi la première digue contre les fuites de données par prompts non maîtrisés.
- Inclure les sous-traitants dans la politique de sécurité, conformément à l'article 28 du RGPD, avec un questionnaire sécurité actualisé sur les usages IA et un audit récurrent. L'ICO insiste sur l'approche dynamique : plus de simple attestation point-in-time.
- Tester le plan de réponse à incident avec un scénario IA — deepfake CEO, exfiltration par prompt injection, malware adaptatif. Sans simulation, la notification CNIL en 72 heures (art. 33 RGPD) ne tiendra pas.
- Renforcer la sensibilisation avec des modules spécifiquement orientés deepfake et ingénierie sociale IA. Le guide Leto sur la sensibilisation IA rappelle que la formation reste la mesure technique et organisationnelle la moins chère et la plus efficace.
L'ICO précise enfin que l'absence des contrôles Cyber Essentials sera prise en compte dans toute enquête post-violation : « cela ne signifie pas que nous n'engagerions pas une action réglementaire ». La CNIL applique la même logique sur l'article 32, comme l'ont rappelé plusieurs sanctions récentes contre des établissements de santé.
Ce que Leto pense de cette décision
Cette guidance n'introduit aucune obligation neuve, mais elle clarifie ce qu'« approprié » veut dire en 2026 sous l'angle de l'article 32. C'est précisément ce qu'attendaient les DPO et les RSSI face à des dirigeants qui demandent encore « combien coûte la MFA » ou « pourquoi une AIPD pour un chatbot interne ». Le plan ICO transforme ces questions en checklist documentée et opposable. Notre conviction : copier cette grille de lecture dans la cartographie des risques, l'aligner sur l'article 32 RGPD et les obligations AI Act qui entrent pleinement en vigueur en août 2026, et l'utiliser pour structurer la prochaine revue annuelle du PSSI. C'est exactement le type de document court et actionnable qui permet de faire avancer une feuille de route DPO sans attendre une sanction.
Sources : Infosecurity Magazine — ICO Publishes Five-Step Plan to Counter Emerging AI-Powered Attacks

