La plus haute juridiction administrative française, le Conseil d’État, a définitivement mis un terme au projet de la Ville de Nice d'utiliser une surveillance vidéo algorithmique pour détecter les véhicules suspects près des écoles. Cette décision, rendue ce vendredi 30 janvier 2026, confirme une précédente mise en demeure de la Commission nationale de l’informatique et des libertés (CNIL) et soulève des questions fondamentales sur l'équilibre entre sécurité et libertés publiques.
Le système, qui visait à renforcer la sécurité des établissements scolaires, est désormais jugé illégal. Le Conseil d’État a estimé qu'aucune base légale n'autorise l'analyse automatisée et systématique des images captées sur la voie publique, même dans un but préventif.
Points Clés
- Le Conseil d’État a rejeté la requête de la Ville de Nice contre la décision de la CNIL.
- Le système de surveillance par algorithme, visant à détecter les véhicules stationnés plus de 5 minutes près des écoles, a été jugé illégal.
- La décision s'appuie sur l'absence de cadre législatif autorisant l'analyse automatisée d'images de vidéosurveillance sur la voie publique.
- 77 caméras étaient équipées de cette technologie à Nice depuis 2020.
Un projet de sécurité stoppé net par la loi
Depuis 2020, la municipalité de Nice avait déployé une technologie de surveillance avancée. Le dispositif reposait sur un algorithme programmé pour analyser en continu les flux vidéo provenant des caméras situées aux abords de plusieurs écoles de la ville. L'objectif était simple : identifier automatiquement tout véhicule stationnant pendant plus de cinq minutes dans ces zones sensibles.
Lorsqu'une telle situation était détectée, une alerte était immédiatement transmise au Centre de Supervision Urbain (CSU). Un agent de la police municipale prenait alors le relais, visionnait les images en direct et évaluait la nature de la menace potentielle pour décider d'une éventuelle intervention sur le terrain.
Cette initiative, présentée par la mairie comme une mesure de protection indispensable pour les enfants, a cependant rapidement attiré l'attention de la CNIL. Le gendarme des données personnelles a mené une inspection en 2023, avant de conclure que le dispositif n'était pas conforme à la législation en vigueur. En mai 2025, la commission a formellement demandé à la Ville de cesser l'utilisation de cet algorithme.
La bataille juridique entre la Mairie et la CNIL
Refusant de se plier à cette injonction, le maire de Nice, Christian Estrosi, a décidé de porter l'affaire devant le Conseil d’État. La municipalité a défendu son système en arguant qu'il s'agissait d'un outil d'aide à la décision humaine, et non d'une surveillance entièrement automatisée, puisque l'intervention d'un policier était systématiquement requise après chaque alerte.
« Notre première préoccupation, c’est la sécurisation des écoles », avait régulièrement affirmé la municipalité pour justifier le maintien de ce programme expérimental.
Cependant, cet argument n'a pas convaincu la plus haute juridiction administrative. Dans sa décision, le Conseil d’État a été très clair, rappelant que « si la vidéosurveillance sur la voie publique est possible, le code de la sécurité intérieure n’autorise toutefois pas l’utilisation d’algorithmes pour analyser de manière systématique et automatisée les images collectées ».
Le dispositif en chiffres
- 77 caméras étaient équipées du logiciel d'analyse algorithmique.
- Le système faisait partie d'un réseau de près de 5 000 caméras de surveillance installées dans la ville de Nice.
- Le seuil de détection était fixé à 5 minutes de stationnement ininterrompu.
Le cadre légal au cœur du débat
La décision du Conseil d’État repose sur une interprétation stricte du droit existant. Pour les juges, la loi actuelle encadre précisément l'usage de la vidéosurveillance mais ne prévoit pas l'étape supplémentaire de l'analyse algorithmique généralisée. Le traitement automatisé des images pour y déceler des comportements spécifiques constitue une nouvelle forme de surveillance qui nécessite un cadre législatif propre.
La conclusion des juges est sans appel : « Aucun texte n’autorise la mise en œuvre de tels traitements ». Cette phrase clé de la décision souligne que, en l'état actuel du droit, de telles initiatives ne peuvent être légalement déployées par les collectivités locales, quelle que soit leur intention.
Qu'est-ce que la vidéosurveillance algorithmique ?
Aussi appelée Vidéosurveillance Augmentée (VSA), cette technologie utilise des logiciels d'intelligence artificielle pour analyser des flux vidéo en temps réel. Au lieu de se contenter d'enregistrer, l'algorithme peut être programmé pour détecter des événements spécifiques : un objet abandonné, un mouvement de foule, un stationnement prolongé, ou encore le franchissement d'une zone interdite. L'objectif est d'automatiser la détection d'anomalies pour alerter les opérateurs humains plus efficacement.
Des implications nationales pour la sécurité urbaine
Bien que la décision ne concerne que le dispositif niçois, elle crée un précédent juridique important pour toutes les villes françaises tentées par l'expérimentation de technologies de sécurité basées sur l'intelligence artificielle. Elle réaffirme le rôle du législateur comme seul habilité à définir les contours de l'utilisation de ces nouveaux outils de surveillance.
Ce verdict intervient dans un contexte de débats intenses sur l'usage de la reconnaissance faciale et d'autres technologies de surveillance, notamment dans la perspective des grands événements sportifs à venir. Le message envoyé par le Conseil d’État est clair : l'innovation technologique en matière de sécurité ne peut se faire au détriment du cadre légal protégeant les libertés individuelles.
Pour la Ville de Nice, qui se positionne souvent comme une pionnière en matière de « safe city », c'est un revers significatif. La municipalité va devoir désactiver le logiciel sur les 77 caméras concernées et repenser sa stratégie de sécurisation des abords des écoles sans recourir à l'analyse automatisée.





