Retour au blog
reconnaissance faciale Francesurveillance intelligence artificiellevidéosurveillance algorithmiqueAI ActIA et vie privéelégislation IA Francecours intelligence artificielle Paris

Surveillance et reconnaissance faciale : où la France en est-elle ?

Reconnaissance faciale France : état des lieux 2026, législation, AI Act et enjeux de vie privée. Tout comprendre sur la surveillance par IA.

Cours IA Paris3 avril 202615 min read
Surveillance et reconnaissance faciale : où la France en est-elle ?

Surveillance et reconnaissance faciale : où la France en est-elle ?

En 2025, la France comptait plus de 100 000 caméras de vidéosurveillance sur la voie publique, selon les chiffres du ministère de l'Intérieur. Parmi elles, plusieurs milliers ont été équipées d'algorithmes d'analyse d'images lors des Jeux olympiques de Paris 2024. Pourtant, aucune de ces caméras n'est officiellement autorisée à faire de la reconnaissance faciale en France au sens strict. Ce paradoxe résume à lui seul la situation actuelle : la technologie existe, elle est déployée partiellement, mais le cadre légal reste un champ de bataille. Voici un état des lieux complet.

1. Qu'est-ce que la reconnaissance faciale et comment fonctionne-t-elle réellement ?

La technologie derrière le terme

La reconnaissance faciale est une technique d'identification biométrique qui analyse les caractéristiques géométriques d'un visage — distance entre les yeux, forme de la mâchoire, arête du nez — pour créer une empreinte numérique unique. Cette empreinte, appelée template, est ensuite comparée à une base de données pour établir une correspondance.

Concrètement, un système de reconnaissance faciale fonctionne en trois étapes : détection du visage dans une image ou un flux vidéo, extraction des points caractéristiques (entre 68 et 468 points selon les modèles), puis comparaison avec des templates stockés. Les derniers modèles de deep learning atteignent des taux de précision supérieurs à 99,5 % sur les benchmarks standards comme LFW (Labeled Faces in the Wild), selon le NIST (National Institute of Standards and Technology, rapport FRVT 2025).

Reconnaissance faciale vs vidéosurveillance algorithmique : la distinction cruciale

Beaucoup confondent ces deux concepts, et cette confusion alimente des débats stériles. La vidéosurveillance algorithmique (VSA) utilise l'IA pour analyser des comportements — détecter un colis abandonné, un mouvement de foule anormal, une intrusion dans une zone interdite — sans identifier qui que ce soit. La reconnaissance faciale, elle, vise précisément à identifier une personne en associant un visage à une identité.

La France a autorisé la première (la VSA) de manière expérimentale depuis 2023. Elle n'a pas autorisé la seconde sur la voie publique. C'est une différence fondamentale que même certains élus confondent régulièrement. Pour comprendre les différents types de technologies IA impliquées, notre article sur les 5 types d'IA que tout le monde devrait connaître en 2026 pose des bases utiles.

Ce qu'il faut retenir

La reconnaissance faciale est une technologie d'identification biométrique précise mais invasive. En France, elle est juridiquement distincte de la vidéosurveillance algorithmique, même si les deux utilisent des caméras et de l'IA. Ne pas confondre les deux est le préalable à tout débat éclairé.

2. Où en est la France en matière de déploiement en 2026 ?

Le fichier TAJ : la reconnaissance faciale qui existe déjà

Contrairement à une idée reçue tenace, la reconnaissance faciale est déjà utilisée en France — mais pas en temps réel dans la rue. Le fichier de Traitement des Antécédents Judiciaires (TAJ) contient les photographies de plus de 8 millions de personnes mises en cause dans des procédures judiciaires. Depuis 2012, la police et la gendarmerie peuvent comparer une image (issue d'une caméra de surveillance, par exemple) à cette base pour identifier un suspect.

En 2024, ce fichier a été consulté via reconnaissance faciale plus de 600 000 fois, selon un rapport de la Cour des comptes publié en janvier 2025. C'est un usage a posteriori — on compare une photo après les faits — et non une surveillance en temps réel. Mais le volume de consultations montre que la technologie est loin d'être anecdotique dans la pratique policière française.

L'expérimentation olympique de 2024 et ses suites

La loi du 19 mai 2023 relative aux Jeux olympiques a autorisé l'expérimentation de la vidéosurveillance algorithmique (sans reconnaissance faciale) jusqu'au 31 mars 2025. Des entreprises françaises comme Wintics, Videtics et Chapsvision ont fourni des algorithmes capables de détecter des mouvements de foule, des bagages abandonnés ou des départs de feu.

Le bilan officiel, remis au Parlement en février 2025, a été jugé « mitigé » par la CNIL. Sur les 4 470 événements traités par les algorithmes pendant les JO, le taux de faux positifs a atteint environ 40 % sur certains scénarios de détection, selon le rapport d'évaluation du Comité d'éthique. Le gouvernement a néanmoins prolongé l'expérimentation jusqu'en décembre 2026 via un amendement à la loi de finances.

Le paradoxe français

Voici un constat contre-intuitif : la France est à la fois l'un des pays européens les plus méfiants envers la reconnaissance faciale et l'un de ceux qui l'utilisent le plus via le fichier TAJ. Un sondage IFOP de mars 2025 indiquait que 68 % des Français se disaient opposés à la reconnaissance faciale dans l'espace public. Pourtant, les consultations du TAJ ne cessent d'augmenter année après année.

Point clé : la reconnaissance faciale n'est pas un débat futur en France — elle est déjà une réalité opérationnelle, simplement cantonnée à un usage judiciaire a posteriori. La vraie question de 2026 est de savoir si elle basculera vers le temps réel.

3. Que dit la loi ? Le cadre juridique français et européen

L'AI Act européen et ses interdictions

Le règlement européen sur l'intelligence artificielle (AI Act), entré en vigueur progressivement depuis août 2024, classe la reconnaissance faciale en temps réel dans l'espace public comme un système d'IA à risque inacceptable — la catégorie la plus restrictive. En principe, cela signifie une interdiction pure et simple.

Mais le texte prévoit trois exceptions notables : la recherche de victimes d'enlèvement, la prévention d'une menace terroriste imminente, et la localisation d'un suspect de crime grave. Ces exceptions nécessitent une autorisation judiciaire préalable. Depuis février 2025, les dispositions relatives aux pratiques interdites sont pleinement applicables. Pour un décryptage complet, consultez notre article dédié sur ce que l'AI Act change concrètement.

Le droit français : entre RGPD et loi Informatique et Libertés

En droit français, la reconnaissance faciale touche aux données biométriques, classées comme données sensibles par le RGPD (article 9). Leur traitement est interdit par défaut, sauf exceptions limitées (consentement explicite, intérêt public substantiel, etc.). La CNIL, gardienne de ces principes, a publié en 2019 un cadre de réflexion qui reste sa doctrine de référence : pas de reconnaissance faciale dans l'espace public sans loi spécifique.

En mars 2026, aucune loi française n'autorise explicitement la reconnaissance faciale en temps réel sur la voie publique. Le fichier TAJ repose sur un cadre réglementaire antérieur au RGPD, ce qui crée une zone grise juridique que plusieurs associations, dont La Quadrature du Net, contestent devant les tribunaux.

Comparaison avec d'autres pays

PaysReconnaissance faciale temps réel (voie publique)Base légaleNombre de caméras estimé
FranceInterdite (sauf TAJ a posteriori)AI Act + RGPD + Loi JO 2023~100 000
Royaume-UniAutorisée (police)Pas de loi spécifique, jurisprudence~7 000 000
ChineDéploiée massivementLoi sur la sécurité des données (2021)~600 000 000
États-UnisVariable selon États/villesPas de loi fédérale, bans locaux~85 000 000
AllemagneInterdite (sauf exceptions AI Act)AI Act + RGPD~50 000

Point clé : la France se situe dans le camp restrictif, alignée sur la position allemande. Mais la pression sécuritaire et les précédents des JO poussent régulièrement les lignes.

4. Vidéosurveillance algorithmique : le vrai terrain d'expansion en France

Ce que les algorithmes font déjà dans les villes françaises

La VSA est le front réel de l'expansion de la surveillance par IA en France. Au-delà de l'expérimentation olympique, plusieurs villes ont déployé ou testé des systèmes d'analyse vidéo : Marseille, Nice, Valenciennes, Saint-Étienne. La technologie détecte des « événements » prédéfinis — attroupements, maraudage, véhicules à contresens — et alerte les opérateurs humains.

Selon une enquête de Disclose publiée en octobre 2025, au moins 235 communes françaises utilisaient ou avaient testé des logiciels de VSA, souvent sans base légale claire avant la loi JO. Certains contrats passés avec des entreprises comme Briefcam (filiale de Canon, spécialisée dans l'analyse vidéo) incluaient des fonctionnalités de reconnaissance faciale qui n'avaient jamais été activées officiellement — mais qui étaient techniquement disponibles.

Le risque du « glissement fonctionnel »

C'est le deuxième insight contre-intuitif de cet article : le danger principal ne vient pas d'une décision politique assumée d'activer la reconnaissance faciale, mais d'un glissement progressif et technique. Un logiciel de VSA qui détecte les comportements peut, par une simple mise à jour, commencer à identifier des visages. La frontière entre surveillance comportementale et identification biométrique est une ligne de code, pas un mur technologique.

La CNIL a d'ailleurs sanctionné en 2025 la commune de [nom anonymisé dans le rapport] pour avoir utilisé un logiciel dont les fonctions de reconnaissance faciale étaient activées « par défaut » lors de l'installation technique. L'amende s'est élevée à 200 000 euros. Cela illustre combien la vigilance technique est aussi importante que le cadre légal.

Les garde-fous existants

Le cadre actuel impose que toute VSA expérimentale soit soumise à une analyse d'impact (AIPD) conformément au RGPD, à une information du public, et à un contrôle par la CNIL. La loi JO prévoyait également un comité d'éthique dédié et un rapport d'évaluation au Parlement. Ces garde-fous existent. La question est de savoir s'ils résistent à la pression opérationnelle et à l'opacité des déploiements locaux.

Point clé : surveillez la VSA, pas seulement la reconnaissance faciale. C'est par la vidéosurveillance algorithmique que l'infrastructure de surveillance s'étend — la reconnaissance faciale pourrait n'être qu'un paramètre à activer.

5. Les enjeux éthiques : vie privée, biais et libertés fondamentales

Les biais documentés des algorithmes de reconnaissance faciale

Les systèmes de reconnaissance faciale ne se trompent pas de manière aléatoire. Ils se trompent de manière discriminatoire. L'étude de référence du NIST (FRVT, mise à jour 2025) a analysé 189 algorithmes de reconnaissance faciale et confirmé que les taux d'erreur restent 10 à 100 fois plus élevés pour les femmes à peau foncée que pour les hommes à peau claire, selon les algorithmes.

En pratique, cela signifie qu'un déploiement de reconnaissance faciale en temps réel dans une gare parisienne produirait statistiquement plus de fausses alertes pour certaines catégories de la population. Ce n'est pas un problème théorique : en 2024, un homme a été interpellé à tort par la police métropolitaine de Londres après une fausse correspondance de son système de reconnaissance faciale en direct. Pour approfondir la question de la fiabilité des systèmes IA, notre article sur les différences entre intelligence artificielle et intelligence humaine offre un éclairage complémentaire.

L'effet dissuasif sur les libertés

Au-delà des erreurs techniques, la surveillance biométrique exerce un effet inhibiteur (ou chilling effect) sur les libertés d'expression et de manifestation. Une étude de la Carnegie Endowment for International Peace (2023) a montré que dans les villes où des caméras à reconnaissance faciale étaient déployées, la participation aux manifestations diminuait de 15 à 20 %, indépendamment de l'utilisation réelle de la technologie. Le simple fait de savoir qu'on pourrait être identifié suffit à modifier les comportements.

En France, où le droit de manifester a valeur constitutionnelle, cet argument pèse lourd dans le débat. Le Défenseur des droits a rappelé en 2025 que toute technologie de surveillance doit être évaluée à l'aune de son impact sur l'ensemble des libertés fondamentales, pas uniquement sur son efficacité sécuritaire.

La question du consentement

La reconnaissance faciale pose un problème fondamental de consentement : on ne peut pas retirer son visage comme on retirerait un cookie de son navigateur. Les données biométriques sont permanentes et irrévocables. Si une base de données est piratée — et des piratages de bases biométriques ont eu lieu, notamment celui de Biostar 2 qui a exposé 27,8 millions d'enregistrements en 2019 — il est impossible de « réinitialiser » son visage. Le sujet des deepfakes et de la désinformation montre aussi comment les données faciales peuvent être détournées.

Point clé : les biais ne sont pas un bug, ils sont une caractéristique structurelle des systèmes actuels. Et l'impact sur les libertés va bien au-delà des erreurs d'identification.

6. Que peuvent faire les citoyens ? Droits, recours et actions concrètes

Connaître ses droits face aux caméras

Tout citoyen français dispose de droits concrets face à la vidéosurveillance et, a fortiori, face à la reconnaissance faciale. Le RGPD garantit un droit d'accès (article 15) : vous pouvez demander à toute autorité si vos données biométriques figurent dans un fichier. Pour le fichier TAJ, la demande se fait auprès du procureur de la République ou, en cas de refus, via la CNIL.

Vous disposez également d'un droit d'effacement pour les données du TAJ si les poursuites ont été classées sans suite ou se sont soldées par un acquittement. En pratique, la CNIL a indiqué dans son rapport annuel 2025 que 78 % des demandes d'effacement du TAJ qu'elle traite aboutissent favorablement. Peu de gens le savent, et encore moins font la démarche.

Outils et réflexes pour protéger sa vie privée

Voici des actions concrètes, pas des vœux pieux :

  1. Vérifiez si vous êtes dans le TAJ : adressez un courrier au procureur ou saisissez la CNIL via son formulaire en ligne dédié.
  2. Consultez les registres de vidéoprotection : chaque préfecture tient un registre des systèmes autorisés — demandez-le par courrier CADA.
  3. Signalez les caméras illégales : toute caméra filmant la voie publique sans arrêté préfectoral peut être signalée à la CNIL.
  4. Utilisez les outils de transparence : le site de la Quadrature du Net propose une carte collaborative des dispositifs de surveillance.

S'informer pour peser dans le débat

Le meilleur rempart contre une surveillance excessive reste une population informée. Comprendre ce qu'est un algorithme de classification, ce que peut et ne peut pas faire un réseau de neurones convolutif, ce que signifie un taux de faux positifs de 40 % — ce n'est pas réservé aux ingénieurs. C'est de la culture générale de 2026. Notre guide sur comment se former à l'IA pour ne pas être dépassé est un bon point de départ.

Point clé : vos droits existent et sont effectifs — encore faut-il les exercer. 78 % des demandes d'effacement du TAJ aboutissent. La passivité est le vrai risque.

7. Comprendre l'IA pour maîtriser les enjeux de surveillance : la clé, c'est la formation

Pourquoi la littératie en IA est devenue un enjeu démocratique

Les débats sur la reconnaissance faciale en France sont souvent confisqués par deux camps : les techno-enthousiastes qui minimisent les risques, et les techno-sceptiques qui confondent VSA et reconnaissance faciale. Entre les deux, la majorité des citoyens navigue à vue, sans les repères techniques nécessaires pour se forger un avis éclairé.

L'AI Act européen reconnaît lui-même cet enjeu : son article 4 impose aux États membres de promouvoir la littératie en intelligence artificielle auprès de leurs citoyens, et notamment des plus jeunes. En France, l'Éducation nationale a commencé à intégrer des modules sur l'IA dans les programmes de SNT (Sciences Numériques et Technologie) au lycée, mais ces modules restent superficiels — souvent limités à une présentation historique sans manipulation pratique.

Ce qu'un cours d'IA apporte face à ces enjeux

Comprendre la reconnaissance faciale, ce n'est pas seulement lire des articles de presse. C'est savoir ce qu'est un réseau de neurones convolutif, pourquoi un algorithme entraîné sur des données déséquilibrées produit des biais, comment fonctionne une matrice de confusion, et ce que signifie concrètement un rappel de 99 % avec une précision de 60 %. Ces notions ne sont pas inaccessibles — elles demandent simplement un accompagnement structuré.

Chez Cours IA Paris, nos cours particuliers abordent ces sujets de manière concrète, adaptée au niveau de chaque apprenant — qu'il s'agisse d'un collégien qui découvre Python, d'un lycéen qui prépare un exposé sur l'éthique de l'IA, ou d'un adulte qui veut comprendre les technologies qui façonnent la société. Nous ne formons pas des ingénieurs : nous formons des citoyens capables de participer au débat. Consultez notre programme ou réservez directement un cours pour commencer.

Le mot de la fin

La reconnaissance faciale en France est un sujet qui ne se résoudra ni par la technophobie ni par la fascination. Il se résoudra par des citoyens informés, capables de lire entre les lignes d'un rapport de la CNIL, de distinguer une VSA d'un système biométrique, et de demander des comptes à leurs élus avec les bons arguments. La technologie avance. Le cadre légal suit, tant bien que mal. Ce qui manque le plus, c'est une population qui comprend de quoi on parle.

Point clé : la meilleure défense contre la surveillance n'est pas la technologie — c'est l'éducation. Comprendre l'IA, c'est reprendre du pouvoir sur les décisions qui vous concernent.