AI Act : pourquoi l'identification biométrique en temps réel par la police reste interdite (sauf trois exceptions)

28/4/26
👈 les autres actualités

L'AI Act consacre l'une des interdictions les plus fortes du droit européen : les systèmes d'identification biométrique à distance en temps réel ne peuvent pas être déployés par la police dans les espaces publics. Mais la lecture exacte de l'article 5(1)(h) impose aux DPO et juristes de comprendre quatre critères cumulatifs et trois exceptions étroitement encadrées, dont l'application dépend de chaque État membre.

Ce qui s'est passé

Le Future of Privacy Forum (FPF) publie le 8 avril 2026 le huitième volet de sa série d'analyses sur les "red lines" de l'AI Act, consacré à l'article 5(1)(h). Cette disposition interdit l'usage par les autorités policières des systèmes d'identification biométrique à distance en temps réel (Real-time Remote Biometric Identification — RBI) dans les espaces accessibles au public.

L'analyse, ancrée sur les lignes directrices de la Commission européenne sur les pratiques d'IA interdites, rappelle un point essentiel : l'interdiction est étroitement délimitée. Si l'un des quatre critères cumulatifs fait défaut, le système ne tombe pas sous le coup de l'article 5 — mais reste qualifié de système d'IA à haut risque, ce qui déclenche les obligations de l'article 6 et suivants.

Pourquoi c'est important

L'enjeu n'est pas seulement juridique : il est démocratique. Le considérant 17 de l'AI Act et les lignes directrices de la Commission insistent sur le « chilling effect » que produit la perception d'une surveillance ubiquitaire. La crainte d'être identifié en temps réel dans l'espace public peut dissuader l'exercice de libertés fondamentales — manifestation, réunion, expression — alors même qu'aucune décision n'a été prise sur le fondement du système.

Quatre critères doivent être réunis pour que l'interdiction s'applique :

  • RBI à distance : un système d'IA capable d'identifier une personne sans son implication active, généralement par comparaison entre données biométriques captées et base de données de référence (article 3(41) AI Act).
  • Temps réel : capture et traitement instantanés ou « sans retard significatif » (considérant 17). Un délai artificiellement introduit ne suffit pas à contourner l'interdiction.
  • Espace publiquement accessible : tout espace physique, public ou privé, accessible à un nombre indéterminé de personnes (article 3(44)). La nature « publique » est une question de fait, pas de désignation officielle.
  • Finalité policière : prévention, enquête, détection, poursuite d'infractions, ou exécution de sanctions pénales (article 3(46), aligné sur la directive « Police-Justice »).

Le FPF rappelle aussi une distinction technique fondamentale : la vérification (matching d'un capteur à une signature stockée localement, type FaceID) reste autorisée et n'entre pas dans l'interdiction. Seule l'identification à distance, par comparaison à une base centralisée, est visée. Cette nuance compte pour les organisations qui déploient des solutions d'authentification.

L'articulation avec le RGPD est également critique. Les autorités policières sont exclues du champ du RGPD par l'article 2(2)(d) : elles relèvent de la directive Police-Justice (LED). Mais dès qu'une finalité bascule en matière administrative — recherche de personne disparue traitée hors enquête pénale, par exemple — le RGPD redevient applicable, avec les contraintes de l'article 9 sur les données biométriques en tant que catégories particulières.

Les trois exceptions et leurs garde-fous

Le considérant 33 impose que toute exception à l'interdiction soit « exhaustivement listée et étroitement définie ». L'article 5(1)(h)(i)-(iii) en prévoit trois :

  • (i) recherche ciblée de victimes d'enlèvement, de traite des êtres humains, d'exploitation sexuelle, ou recherche de personnes disparues ;
  • (ii) prévention d'une menace substantielle et imminente pour la vie ou l'intégrité physique, ou menace terroriste réelle et présente ;
  • (iii) localisation ou identification d'un suspect d'infraction listée à l'Annexe II et passible d'au moins quatre ans de privation de liberté.

Ces exceptions ne s'activent pas automatiquement. Elles doivent être transposées par chaque État membre dans une loi nationale qui précise les infractions retenues, l'autorité d'autorisation, et les modalités opérationnelles. Conséquence : la cartographie des usages autorisés divergera significativement d'un pays à l'autre.

Surtout, le déploiement reste subordonné à un empilement d'obligations :

  • Évaluation d'impact sur les droits fondamentaux (FRIA) au titre de l'article 27 AI Act, complétée avant tout déploiement. Le template officiel attendu par la Commission n'est toujours pas publié — les déployeurs sont en attente.
  • Enregistrement du système dans la base de données européenne (article 49).
  • Autorisation préalable par une autorité judiciaire ou administrative indépendante pour chaque usage individuel (article 5(3)). Une exception « urgence » existe, mais l'autorisation doit alors être demandée dans les 24 heures.
  • Double validation humaine : deux personnes formées et compétentes doivent confirmer une identification avant qu'une décision ne soit prise (article 14).
  • Notification simultanée à l'autorité de surveillance du marché et à l'autorité de protection des données.
  • Pas d'effet juridique défavorable reposant uniquement sur la sortie du système.

Le FRIA ne remplace par ailleurs pas l'AIPD qui peut rester exigée au titre du RGPD, de la LED ou du règlement protection des données des institutions européennes. Pour mesurer l'écart à combler, la publication récente du template AIPD par l'EDPB donne une référence opérationnelle. Côté AI Act, notre guide complet de conformité IA détaille la cartographie des obligations à anticiper.

Ce que ça change pour les organisations

Les implications dépassent le cercle restreint des autorités policières. Trois conséquences concrètes pour les DPO et responsables conformité :

  • Cartographier les systèmes biométriques déployés en distinguant identification à distance et vérification locale. Tout système d'identification à distance, même hors finalité policière, bascule en système IA à haut risque et déclenche les obligations de l'article 6.
  • Anticiper le double assessment : pour les organisations susceptibles d'agir en appui de la police (sous-traitance technique, fourniture de capteurs, hébergement de bases de référence), la chaîne contractuelle devra démontrer que FRIA, AIPD et autorisation préalable ont été correctement orchestrées.
  • Auditer les usages mixtes : un système conçu pour le contrôle d'accès privé peut devenir « espace publiquement accessible » selon les flux de fréquentation. La qualification est factuelle.

L'enforcement existant est révélateur de la trajectoire. Les sanctions ne portent pour l'instant pas sur les autorités policières, mais sur le secteur privé : Clearview AI a été sanctionné par la CNIL néerlandaise et par le Garante italien pour traitement biométrique sans base légale valable. La récente condamnation par la CJUE du profilage policier français (arrêt Comdribus du 19 mars 2026) montre que le contrôle juridictionnel se durcit aussi sur les pratiques étatiques.

Ce que Leto pense de cette décision

L'article 5(1)(h) est une victoire pour les droits fondamentaux dans le texte — et un chantier opérationnel inachevé en pratique. Tant que la Commission n'a pas publié son template de FRIA, et tant que les États membres n'ont pas tous transposé les exceptions, les déployeurs avancent à l'aveugle sur un terrain où chaque erreur expose à un risque maximal. L'effort doit donc se concentrer dès maintenant sur la documentation des systèmes biométriques existants et sur la qualification rigoureuse de leur statut au regard de l'article 5 — avant qu'une autorité de contrôle ne le fasse à votre place.

Sources : Future of Privacy Forum — Red Lines under the EU AI Act · Commission européenne — Lignes directrices sur les pratiques d'IA interdites · Règlement (UE) 2024/1689 (AI Act)

Restez connecté(e).

Téléchargez notre application mobile de veille RGPD, Intelligence Artificielle et Cybersécurité. 
100% gratuite. 

Discutons ensemble — et voyons comment Leto peut vous simplifier votre quotidien

Demander une démo