Ethan

90 000 caméras, un ramasseur de champignons et le Conseil constitutionnel — Ce que la vidéosurveillance IA a vraiment donné pendant les JO

ia, IA générative, intelligence artificielle, jo 2024, Paris, Paris 2024, surveillance

Le député Éric Martineau a résumé l’affaire en quatre mots : « Tout ça pour ça. » Le 19 mars 2025, au terme de la mission d’information flash de l’Assemblée nationale sur le bilan sécuritaire des Jeux olympiques de Paris, le verdict est tombé. L’expérimentation de la vidéosurveillance algorithmique — cette technologie qui devait révolutionner la sécurité des grands événements — n’a pas été à la hauteur.

Son collègue Stéphane Peu, élu de Seine-Saint-Denis, a été plus précis : « Il y a un cas seulement où la vidéoprotection algorithmique a été utile. Et encore, c’était un ramasseur de champignons qui s’était égaré. »

Pourtant, six mois plus tard, le gouvernement a fait voter sa prolongation jusqu’en 2027.

Ce que la loi autorisait

Suivez LJG sur Google

Ajoutez LJG à vos sources préférées pour voir nos articles en priorité dans "À la une".

Il faut rembobiner. Le 19 mai 2023, en pleine crise des retraites, le Parlement adopte la loi relative aux Jeux olympiques et paralympiques de 2024. Son article 10 crée un cadre expérimental inédit : pour la première fois en France, des algorithmes sont autorisés à analyser en temps réel les images des caméras de surveillance dans l’espace public.

Le périmètre est strict. Huit types de situations peuvent être détectés : mouvement de foule anormal, franchissement de zone interdite, objet abandonné, personne au sol, départ de feu, présence d’une arme, densité excessive, circulation à contresens. Pas de reconnaissance faciale — c’est la ligne rouge que le législateur a tracée. L’expérimentation court jusqu’au 31 mars 2025, avec obligation de remettre un rapport d’évaluation au Parlement.

En région parisienne, 185 caméras fixes sont mobilisées. La SNCF, la RATP et la préfecture de police de Paris déploient les algorithmes sur les gares, les stations de métro et les sites olympiques. Les premiers tests commencent en mars 2024, lors d’un concert de Depeche Mode à l’Accor Arena de Bercy.

Un bilan de 135 pages qui douche l’enthousiasme

Le 14 janvier 2025, le comité d’évaluation — présidé par le haut-fonctionnaire Christian Vigouroux — remet son rapport au ministère de l’Intérieur. 135 pages. Le Monde et France Info le consultent en avant-première.

Le constat est sans appel. Les performances sont « inégales, très variables en fonction des opérateurs et des cas d’usages, des contextes d’utilisation, ainsi que des caractéristiques techniques et du positionnement des caméras ». En clair : ça marche dans certains cas, pas du tout dans d’autres.

Ce qui fonctionne : la détection d’intrusion en zone interdite — « le seul cas d’usage qui fait l’unanimité » — et la détection de véhicules à contresens. Les espaces clos comme les couloirs de métro donnent des résultats corrects.

Ce qui ne fonctionne pas : à peu près tout le reste. Les algorithmes ont confondu des bancs publics, des panneaux de signalisation et des personnes sans-abri avec des objets suspects. Les faux positifs sont fréquents. La détection de mouvements de foule échoue à distinguer un groupe de touristes marchant dans la même direction d’une bousculade. La détection d’armes produit des résultats « non concluants » avec un « grand nombre de faux positifs ». La détection de départs de feu confond les devantures de magasins et les phares de voiture avec des incendies.

A lire :  Il n'est pas médecin, mais il a conçu un vaccin contre le cancer de sa chienne — avec ChatGPT, AlphaFold et 3 000 dollars

Et surtout : près de la moitié des huit cas d’usage autorisés n’ont jamais été testés. Ni la RATP, ni la SNCF n’ont expérimenté la détection de départs de feu, de chutes de personne ou d’armes à feu.

Le comité d’évaluation lui-même admet que neuf mois d’expérimentation ne suffisent pas à tirer des conclusions. Il reconnaît un intérêt « réel » mais « limité ».

La prolongation qui ne veut pas mourir

Malgré ce bilan, le gouvernement veut continuer. Dès sa déclaration de politique générale du 1er octobre 2024 — avant même la remise du rapport —, Michel Barnier annonce vouloir « généraliser la méthode expérimentée pendant les Jeux olympiques ».

Première tentative : en février 2025, un amendement glisse la prolongation de la VSA dans une proposition de loi sur la « sûreté dans les transports ». Le texte passe. Mais en avril, le Conseil constitutionnel censure la disposition : c’est un cavalier législatif — l’article n’a rien à voir avec le texte qui le porte.

Deuxième tentative : le gouvernement réintroduit la prolongation dans le projet de loi d’organisation des JO d’hiver des Alpes 2030. L’argument de la ministre des Sports Marie Barsacq : en montagne, il y aura moins de forces de l’ordre qu’à Paris, donc la VSA sera « beaucoup plus pertinente ». Le 17 décembre 2025, l’Assemblée nationale adopte l’article 35 qui prolonge l’expérimentation jusqu’au 31 décembre 2027. Le 13 janvier 2026, le vote solennel confirme.

Deux ans de plus. Pour une technologie dont le propre rapport d’évaluation dit qu’elle n’a pas été concluante.

surveillance vidéo ia

Au-delà des JO : la VSA sauvage

L’expérimentation des JO n’est que la face légale du phénomène. En parallèle, la VSA se déploie sans cadre juridique clair dans d’autres contextes.

En juillet 2023, Streetpress révèle que des magasins Leclerc, Carrefour, Système U, Kiabi et Fnac ont déployé illégalement le logiciel de l’entreprise française Veesion — une VSA qui détecte les gestes suspects de vol à l’étalage. En juin 2024, le Conseil d’État rejette le recours de Veesion contre la mise en demeure de la CNIL : la solution n’est pas conforme au RGPD.

À Moirans, en Isère, le tribunal administratif de Grenoble juge illégale en janvier 2025 l’utilisation du logiciel israélien Briefcam par la municipalité. L’utilisation de la VSA sur la voie publique, en dehors du cadre expérimental des JO, est interdite en France. La CNIL l’a rappelé en 2024.

A lire :  5 façons de gagner de l'argent sans bouger de chez-soi grâce à l'IA en 2024

Mais les élus locaux poussent. Valérie Pécresse, présidente de la région Île-de-France, déclare en mars 2025 vouloir « la reconnaissance faciale pour toutes les personnes dangereuses recherchées par les services de police ». Martine Vassal, présidente de la métropole Aix-Marseille, annonce travailler avec le préfet pour « faire aussi de la reconnaissance faciale » dans les transports en commun.

La reconnaissance faciale — la ligne rouge tracée par le législateur en 2023 — est déjà dans le débat public. Et elle n’a pas attendu d’être autorisée pour être expérimentée : Nice l’a testée lors du carnaval de 2019 sur 50 volontaires, et la CNIL n’a pas jugé le test satisfaisant. La région PACA a tenté de la déployer dans deux lycées à Nice et Marseille en 2020 — la justice administrative l’a interdite.

90 000 caméras et une question

La France compte environ 90 000 caméras de vidéoprotection sur la voie publique, plus de 900 centres de supervision urbaine, et un nombre croissant de drones équipés de caméras depuis leur légalisation. Le constat est unanime, y compris du côté des forces de l’ordre : le volume d’images est tel que l’œil humain ne peut plus tout analyser.

C’est l’argument massue des partisans de la VSA : il faut des algorithmes pour traiter ce que l’humain ne peut pas absorber. Et c’est un argument recevable. Mais le rapport d’évaluation des JO montre que les algorithmes, aujourd’hui, ne le traitent pas non plus — ou mal.

La CNCDH a publié un avis en 2024 appelant les pouvoirs publics à « reconsidérer leur volonté d’accélérer le déploiement des dispositifs de vidéoprotection ». La CNIL demande un « débat démocratique ». Le comité d’évaluation insiste : si la VSA est prolongée, il faut « le contrôle des parlementaires en amont, le renvoi à des décrets soumis à la CNIL, l’interdiction de la reconnaissance faciale en dehors du contexte judiciaire, et l’information claire du public ».

La question n’est pas technique. Les algorithmes s’amélioreront — la détection d’intrusion fonctionne déjà. La question est politique : jusqu’où un État démocratique peut-il automatiser la surveillance de l’espace public sans glisser vers un modèle dont personne ne veut prononcer le nom ?

Je suis Ethan, journaliste spécialisé en intelligence artificielle et nouvelles technologies. Je couvre l’actualité de l’IA agentique, des grands modèles de langage et des outils qui transforment nos usages numériques. Mon objectif : rendre accessibles les avancées technologiques les plus complexes, avec rigueur et sans jargon inutile.