Data / IA

Vidéosurveillance algorithmique : la loi encore floue

Par Thierry Derouet, publié le 24 avril 2025

Encadrée par la loi JO, mais freinée par un droit instable, la vidéosurveillance algorithmique divise. Si la promesse sécuritaire séduit, l’incertitude juridique persiste. Les DSI, en première ligne, avancent sur un fil.

À Moirans, dans l’Isère, la municipalité pensait répondre à une demande croissante de tranquillité publique en adoptant un système d’analyse vidéo intelligente. Mais la réponse judiciaire fut cinglante : par une décision du 30 janvier 2025, le tribunal administratif de Grenoble a jugé le dispositif illégal. Motifs : absence de base légale explicite, absence d’analyse d’impact relative à la protection des données (AIPD), et suspicion de fonctions biométriques actives, en violation des principes du RGPD.

Un précédent ? Non. Quelques mois plus tôt, le 2 juin 2023, le tribunal administratif de Marseille avait également censuré un déploiement de Vidéosurveillance algorithmique (VSA) pour disproportion et défaut d’encadrement juridique. Le message est clair : l’innovation, même sécuritaire, ne dispense pas du respect de la loi.

Dans ce flou, la vidéosurveillance algorithmique, autorisée à titre expérimental par la loi n° 2023-380 du 19 mai 2023, continue néanmoins de se diffuser. Initialement prévue jusqu’au 31 mars 2025, cette expérimentation a été prolongée jusqu’au 1er mars 2027 via un amendement introduit dans la loi sur la sûreté dans les transports (adoptée en mars 2025).

Le droit peine à suivre la technologie, les décisions de justice divergent, et les collectivités s’interrogent : la vidéosurveillance algorithmique peut-elle être déployée sans risque juridique ?
La vidéosurveillance algorithmique peut-elle être déployée sans risque juridique ?

Mais cette prolongation est elle-même sous contrôle : un amendement législatif contesté est actuellement examiné par le Conseil constitutionnel, saisi pour irrégularité. Le droit peine à suivre la technologie, les décisions de justice divergent, et les collectivités s’interrogent : la vidéosurveillance algorithmique peut-elle être déployée sans risque juridique ?

Vidéosurveillance algorithmique, une légalité conditionnée

Pour Alan Ferbach, cofondateur de Videtics, « le droit n’a pas encore stabilisé le sujet. » La CNIL tolère certains usages à visée statistique, à condition qu’ils soient justifiés par une finalité légitime et dûment encadrés. Mais, dès qu’il s’agit de traitement à des fins de sécurité publique, et notamment de détection d’incidents en temps réel, l’autorité de contrôle renvoie vers le législateur.

Sélectionnée dans le cadre d’un appel d’offres national, la solution de Videtics a été déployée dans plusieurs territoires — sud, Auvergne-Rhône-Alpes, corse, outre-mer — à l’occasion d’événements variés : Festival de Cannes, marchés de Noël, compétitions sportives. Des expérimentations riches d’enseignements, mais cantonnées à un cadre restrictif.

Le constat est partagé : les collectivités disposent déjà d’un patrimoine vidéo considérable, sous-exploité. « 99 % des images issues des caméras de vidéoprotection ne sont jamais consultées », rappelle Alan Ferbach. L’ambition de la vidéosurveillance algorithmique est pourtant claire : détecter, en temps réel, un départ de feu, une intrusion, une situation inhabituelle. Et non surveiller davantage, mais mieux. Car ce que souligne notre interlocuteur, c’est que « ce n’est pas une substitution à l’humain, mais un allègement de sa charge cognitive. »

Fantasmes persistants, pédagogie déficiente

Reste que l’outil cristallise les craintes. « Il y a une confusion permanente entre analyse algorithmique et reconnaissance faciale », regrette Arnaud Déplanque, directeur France de Technis, désormais partenaire industriel de Videtics. Les deux entreprises ont uni leurs forces pour proposer une solution européenne de VSA conforme au RGPD et dépourvue de toute fonction biométrique. « Même parmi les élus, beaucoup confondent détection de mouvement et systèmes de notation sociale à la chinoise. » Ce malentendu alimente la défiance des ONG, entretient les fantasmes, et complique l’acceptabilité de dispositifs pourtant strictement encadrés.

Alan Ferbach abonde : « L’intelligence artificielle est mal nommée. Beaucoup projettent sur ces outils des capacités qu’ils n’ont pas. » Dans la réalité, aucune décision n’est automatisée : les systèmes signalent, l’humain tranche. Mais l’imaginaire collectif, nourri par les dystopies, continue de peser.

Droit fragmenté, opérateurs précautionneux

L’expérimentation autorisée par la loi JO se limite à huit scénarios d’alerte : mouvement de foule, intrusion, objet abandonné, etc.1 Mais dans les faits, les besoins des collectivités dépassent ce périmètre. « Le plus demandé aujourd’hui, ce sont les dépôts sauvages. Ce n’est pas couvert par la loi », explique Alan Ferbach. « Les élus nous demandent si l’on peut générer une alerte en temps réel ou seulement après-coup. Ce flou bloque les usages. »

Vers une normalisation par l’Europe ?

Deux échéances conditionneront l’avenir de la vidéosurveillance algorithmique. La première est française : la décision du Conseil constitutionnel sur la légalité de l’amendement voté en 2025. La seconde est européenne : l’entrée en vigueur progressive de l’AI Act, qui imposera à partir de 2027 des exigences strictes pour les systèmes jugés à haut risque. Pour Alan Ferbach, cette normalisation pourrait clarifier le débat : « L’AI Act ne juge pas l’outil, mais l’usage. »

Pour les DSI, une vigilance méthodique

Dans ce climat instable, le rôle du DSI prend une dimension stratégique. Chaque déploiement doit être adossé à une autorisation préfectorale précise, répondre à une finalité explicitement définie, et s’appuyer sur une analyse d’impact complète (AIPD). Toute fonction biométrique doit être désactivée et cela doit être consigné. La transparence à l’égard du public est une obligation, pas un choix. Quant au choix des fournisseurs, il doit anticiper les exigences du règlement IA européen : auditabilité, sobriété, supervision humaine.

Ce dispositif de précaution ne supprime pas le risque. Mais il constitue un rempart solide face aux contrôles de la CNIL et aux contentieux portés par les associations.

Une innovation à encadrer, non à freiner

La vidéosurveillance algorithmique peut contribuer à la sécurité publique, à condition d’être strictement encadrée. Elle ne remplace pas les opérateurs humains, mais les soutient. Elle ne se substitue pas à la loi, mais doit y rester ancrée. Pour les DSI, la prudence est de mise : mieux vaut structurer un projet conforme que subir un revers juridique. Et pour les législateurs, l’enjeu est clair : sortir de l’ambiguïté et inscrire cette technologie dans un cadre clair, durable, démocratiquement validé.


Différents cas d’une jurisprudence mouvante

1. Conseil d’État, 21 décembre 2023 – Affaire BriefCam (Cœur Côte Fleurie)

Résumé : Le Conseil d’État a annulé une ordonnance du tribunal administratif de Caen qui avait enjoint l’effacement des données collectées via le logiciel BriefCam. Il a estimé que la possession d’un logiciel avec des fonctions de reconnaissance faciale n’était pas illégale si ces fonctions étaient désactivées et que l’usage algorithmique restait conforme au cadre légal.

À retenir : Il est essentiel de documenter rigoureusement la désactivation des fonctions biométriques pour éviter des contentieux.

Source à consulter


2. Tribunal administratif de Marseille, 2 juin 2023 – Affaire commune de Marseille et société SNEF

Résumé : Une collectivité a été sanctionnée pour l’usage de la VSA sans base légale ni analyse d’impact (AIPD), en violation du RGPD. Le tribunal a jugé le dispositif disproportionné, collectant des données au-delà des besoins sécuritaires.

À retenir : Toute installation de VSA doit être précédée d’une analyse d’impact complète, conformément à l’article 35 du RGPD.

Source à consulter


3. Tribunal administratif de Grenoble, 30 janvier 2025 – Affaire Moirans

Résumé : Le tribunal a annulé la décision de la maire de Moirans d’utiliser le logiciel BriefCam, estimant que le dispositif était illégal en l’absence de base légale claire et d’analyse d’impact. Le tribunal a également relevé que la mise en œuvre du logiciel n’avait été accompagnée d’aucune finalité déterminée et explicite ni d’aucune garantie de nature à sauvegarder le droit au respect de la vie privée des administrés.

À retenir : L’usage de la vidéosurveillance algorithmique doit se limiter aux huit cas d’usage autorisés (voir ci-dessous) par la loi relative aux Jeux Olympiques et Paralympiques de 2024, sous peine d’annulation.

Source à consulter


4. CNIL, mise en demeure du 5 décembre 2024 – Ministère de l’Intérieur

Résumé : La CNIL a mis en demeure le ministère de l’Intérieur pour des usages non conformes de BriefCam, notamment l’absence d’AIPD et la mise à disposition de fonctions biométriques non désactivées. Cette action reflète une vigilance accrue post-JO.

À retenir : Il est crucial de collaborer avec la CNIL en amont et d’auditer régulièrement les logiciels pour éviter des sanctions, qui peuvent aller jusqu’à 20 millions d’euros sous le RGPD.

Source à consulter


  1. Non-respect du sens de circulation, Franchissement ou présence dans une zone interdite, Mouvement de foule, Densité excessive de personnes, Colis abandonné, Présence ou usage d’armes, Personne au sol, Départ de feu ↩︎

Dans l'actualité

Verified by MonsterInsights