Gestion des foules, enquêtes policières : la vidéosurveillance algorithmique s’implante-t-elle durablement en France ?
Le gouvernement avait lancé une expérimentation de la vidéosurveillance algorithmique dans la perspective des Jeux olympiques de Paris. Il souhaite désormais prolonger l’expérimentation jusqu’en 2027, ce que l’Assemblée nationale a voté, mardi 18 mars.

Le gouvernement avait lancé une expérimentation de la vidéosurveillance algorithmique (VSA) dans la perspective des Jeux olympiques de Paris. L’Exécutif souhaite désormais prolonger l’expérimentation jusqu’en 2027, ce que l’Assemblée nationale a définitivement voté, ce mardi 18 mars. Parallèlement, les collectivités territoriales commencent à s’intéresser à cette technologie. Quels sont ses cas d’usage ? Quels sont les risques pour les libertés publiques ?
L’État et les collectivités utilisent de plus en plus les algorithmes afin de surveiller les populations. Sous l’angle sécuritaire, cette évolution est logique. Les traitements algorithmiques offrent une promesse redoutable d’efficacité : à la différence de l’humain, l’intelligence artificielle (IA) ne connaît pas la fatigue et peut surtout traiter de façon simultanée une masse de données considérable.
C’est pourquoi les entreprises développent de plus en plus de logiciels de vidéosurveillance algorithmique (VSA) et les vendent aux personnes publiques. Ces solutions permettent aux autorités d’ajouter une surcouche logicielle à un parc de caméras déjà existant. La vision devient alors « augmentée » grâce aux traitements algorithmiques. En temps réel, l’IA est capable de détecter automatiquement un ensemble d’évènements prédéterminés (départ de feu, colis abandonné, présence d’armes, mouvement de foule, personne au sol, etc.).
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
En temps différé, elle peut améliorer l’analyse du contenu des enregistrements, notamment à partir des filtres de classification d’objets. Dans l’un et l’autre cas, la VSA ne doit pas être assimilée à de la reconnaissance faciale dès lors qu’elle reconnaît des situations, non des personnes.
La VSA des grands évènements : la loi JOP
Les médias ont bien sûr largement relayé l’information, les Jeux olympiques de 2024 ont été l’occasion, pour la première fois, de légiférer dans l’objectif d’expérimenter cette technologie. Avec la loi Jeux olympiques et paralympiques (dite loi JOP) du 19 mai 2023, le législateur a cependant pris des précautions afin de ne pas brusquer l’opinion. L’expérimentation a été bornée sur les plans, à la fois, temporel (jusqu’au 31 mars 2025) et matériel (limitée aux évènements d’ampleur, c’est-à-dire les grandes « manifestations sportives, récréatives ou culturelles »).
Dans le cadre spécifique de l’expérimentation, les traitements algorithmiques ne sont autorisés à fonctionner qu’en temps réel. Concrètement, l’agent humain reçoit une notification à l’écran, puis doit décider de la conduite à adopter sur le terrain (envoyer une patrouille, ne rien faire ou continuer à observer). Ce signalement s’apparente finalement à une aide à la gestion opérationnelle de l’ordre public.
En principe, la méthode expérimentale est rigoureuse : la loi doit être seulement temporaire, et elle doit être suivie d’une évaluation afin de savoir si elle doit être pérennisée, éventuellement modifiée ou abandonnée. Or, en l’espèce, la phase d’évaluation a semblé illusoire dès le départ. Les pouvoirs publics, avant même les retours d’expérience, ont toujours clamé leur volonté de pérenniser la VSA. Après une période d’observation, le comité d’évaluation a pourtant publié, en février 2025, son rapport sur la question.
Du point de vue technique, ses conclusions sont mitigées car la technologie n’est pas encore tout à fait mature. Il apparaît, en particulier, que les performances des traitements algorithmiques varient significativement selon les cas d’usage, à savoir le type d’événements à repérer. Certaines situations, détaillées dans le rapport d’évaluation, sont plus difficiles à appréhender et entraînent de multiples faux positifs (situation que l’algorithme détecte à tort) et faux négatifs (situation non détectée malgré son « anormalité »).
Cela n’a pas empêché le souhait du gouvernement de prolonger l’expérimentation, jusqu’en 2027, au détour d’un amendement sur la loi relative au renforcement de la sûreté dans les transports, finalement votée le 18 mars 2024.
La VSA urbaine : absence de fondement légal
En dehors de cette utilisation bien identifiée, plusieurs contentieux devant le juge administratif ont également révélé un autre usage, plus occulte, de la VSA. C’est l’affaire dite « Briefcam » (du nom du logiciel utilisé) dans laquelle des collectivités territoriales ont employé cette technologie alors même qu’elles ne disposaient d’aucun fondement légal.
Ici, le recours à la VSA ne concerne pas les grands évènements et il ne peut pas, par conséquent, s’appuyer sur la loi de 2023. Il s’agit essentiellement d’une surveillance urbaine, à partir d’images préalablement enregistrées par les caméras, sur lesquelles l’IA est appliquée afin d’effectuer des relectures utiles aux enquêtes policières.
Saisies par des associations de défense des droits de l’homme ou des libertés numériques, les juridictions administratives ont eu, pour l’instant, une jurisprudence ambivalente. Si quelques tribunaux, comme celui de Grenoble ou de Caen, ont suspendu le recours à ce type de logiciel, d’autres juges – dont le Conseil d’État – ont eu une motivation plus prudente et ont débouté les requérants.
Globalement, la jurisprudence administrative semble tolérer un usage a posteriori de la VSA dans le but d’améliorer l’analyse des images obtenues par les caméras. Cet usage est le seul toléré. Une telle position est par ailleurs conforme à la doctrine de la CNIL, qui a récemment affirmé :
« l’utilisation de logiciels d’analyse automatique des images en différé, c’est-à-dire à partir d’images déjà enregistrées, est autorisée pour les besoins des enquêtes judiciaires. »
Dans les faits, ces logiciels servent ainsi à compiler des heures d’enregistrement en seulement quelques minutes de vidéo. À la demande des enquêteurs, les informations peuvent être classées selon un système de filtre, ce qui facilite et accélère les recherches.
En fonction des usages, il faut alors désormais distinguer la VSA en temps réel (celle de la loi JOP, qui vise la prévention et la gestion des troubles à l’ordre public) et la VSA en temps différé (sans réel fondement légal, davantage tournée vers la répression des infractions).
Quels risques pour les libertés publiques ?
Quelle que soit l’hypothèse retenue, celle d’une surveillance des grands évènements (en temps réel) ou celle d’une surveillance plus quotidienne (en temps différé), le législateur devra rapidement intervenir pour apporter de la sécurité juridique. Au niveau constitutionnel, l’article 34 l’impose. Un cadre légal clair – qu’il autorise, encadre strictement ou interdise – est absolument nécessaire tant pour les citoyens et les autorités administratives que pour le tissu économique. Ajoutons qu’il est souhaitable que la future loi soit précédée d’un débat démocratique puisque si la VSA est potentiellement utile sur le plan sécuritaire, elle comporte aussi des risques non négligeables.
Le principal danger de cette technologie se situe, en effet, dans ce qu’il est convenu d’appeler le « chilling effect », ou « effet dissuasif ». Se sachant surveillés, ou craignant de l’être, les citoyens n’osent plus exercer leurs droits individuels et collectifs (s’exprimer, manifester, aller et venir). Dans les cas les plus extrêmes, certaines études montrent que la VSA peut servir à réprimer des opposants politiques et/ou des minorités comme, par exemple, en Iran où l’IA a été mobilisée pour détecter les femmes ne portant pas le hijab.
Sans aller jusque-là, la simple superposition de différentes technologies de surveillance (telle que l’association de la vidéosurveillance, de l’IA, voire du drone) est susceptible d’alimenter une crainte légitime et d’influencer les comportements. En ce sens, lors de son contrôle de la loi JOP, le Conseil constitutionnel a exigé que la mise en œuvre des systèmes de VSA soit « assortie de garanties particulières de nature à sauvegarder le droit au respect de la vie privée ». Toute la difficulté, à l’évidence, reste de définir ces garanties. À l’instar de Montesquieu, il convient d’espérer que le Parlement n’écrive, sur le sujet, que d’une « main tremblante ».
Mattéo Bartolucci est membre de l'Observatoire de la surveillance en démocratie.