C’est sans surprise que le Premier ministre, Michel Barnier, a annoncĂ©, dans son discours de politique gĂ©nĂ©rale du 1er octobre, la gĂ©nĂ©ralisation de «la mĂ©thode expĂ©rimentĂ©e pendant les Jeux olympiques et paralympiques». En d’autres termes, la vidĂ©oprotection augmentĂ©e par algorithmes, adoptĂ©e Ă  titre expĂ©rimental et temporaire par la loi du 19 mai 2023, est appelĂ©e Ă  ĂȘtre pĂ©rennisĂ©e, avant mĂȘme la remise du rapport d’évaluation de l’expĂ©rimentation.

Le rĂ©gime de la «vidĂ©osurveillance», c’est-Ă -dire l’enregistrement et la transmission d’images de la voie publique aux autoritĂ©s «aux fins d’assurer la protection des bĂątiments et installations publics et de leurs abords» est dĂ©jĂ  ancien. Introduite par la loi d’orientation et de programmation relative Ă  la sĂ©curitĂ© du 21 janvier 1995, la vidĂ©osurveillance a Ă©tĂ© rebaptisĂ©e «vidĂ©oprotection» par la loi d’orientation et de programmation pour la performance de la sĂ©curitĂ© intĂ©rieure du 14 mars 2011 (Loppsi 2), afin de rendre le terme plus positif : le citoyen doit en permanence ĂȘtre protĂ©gĂ©, et non surveillĂ©. La logique qui conduit Ă  postuler un besoin toujours plus important de protection n’a, en revanche, jamais Ă©tĂ© interrogĂ©e, de mĂȘme que l’efficacitĂ© concrĂšte de la vidĂ©oprotection sur le terrain reste Ă  dĂ©montrer.

Les Ă©tudes sur ce point sont rares et le lĂ©gislateur peu intĂ©ressĂ© par leurs conclusions. L’une des preuves est le fait que le rapport d’évaluation de l’expĂ©rimentation de la vidĂ©oprotection algorithmique doive ĂȘtre remis au Parlement le 31 dĂ©cembre 2024, soit trois mois avant la fin de l’expĂ©rimentation en mars 2025. Sans mĂȘme attendre cette remise, le prĂ©fet de police, Laurent Nuñez, a dĂ©jĂ  affirmĂ© mercredi 25 septembre que le bilan de l’expĂ©rimentation Ă©tait «positif».

AnnoncĂ©e plusieurs mois avant la remise du rapport d’évaluation, la gĂ©nĂ©ralisation de la vidĂ©oprotection augmentĂ©e par des systĂšmes d’intelligence artificielle, dont les bienfaits sont postulĂ©s semble-t-il par principe, s’inscrit dans une logique de fuite en avant sĂ©curitaire peu transparente, sans Ă©valuation des consĂ©quences sociales et Ă©thiques de l’adoption de ces technologies.

Il y a pourtant tout lieu d’interroger le dispositif et de prendre le temps du dĂ©bat public. La vidĂ©oprotection algorithmique, telle qu’elle est expĂ©rimentĂ©e actuellement en France, n’implique certes pas la reconnaissance faciale en temps rĂ©el dans l’espace public. Il s’agit, sur autorisation prĂ©fectorale et dans le cadre de manifestations sportives ou culturelles, d’identifier automatiquement et de signaler une sĂ©rie de huit «évĂ©nements» dĂ©finis par dĂ©cret du 28 aoĂ»t 2023. DĂ©parts de feux, vĂ©hicules roulant Ă  contresens ou encore mouvements de foule font partie des «évĂ©nements» dont la dĂ©tection automatique paraĂźt de prime abord pertinente, sous rĂ©serve qu’elle facilite rĂ©ellement la rĂ©action des autoritĂ©s compĂ©tentes sur le terrain, ce que seul le rapport d’évaluation de l’expĂ©rimentation permettra d’apprĂ©cier. D’autres Ă©vĂ©nements dĂ©finis par le mĂȘme dĂ©cret laissent circonspects, Ă  l’instar de la dĂ©tection automatique de la «densitĂ© trop importante de personnes», manifestement dĂ©finie discrĂ©tionnairement par les services prĂ©fectoraux, ou encore du non-respect «du sens de circulation commun» par un piĂ©ton qui laisse entrevoir une sociĂ©tĂ© de la surveillance peu enviable. Corriger les imprĂ©cisions et lacunes

Une premiĂšre nĂ©cessitĂ© consiste Ă  corriger ces imprĂ©cisions, ne serait-ce que par transparence envers les administrĂ©s et pour Ă©viter les dĂ©rives d’un dispositif qui constituerait, en l’état, une arme terrifiante aux mains d’un gouvernement moins soucieux des libertĂ©s fondamentales. Une autre mesure indispensable rĂ©side dans l’interdiction inconditionnelle de la reconnaissance faciale, laquelle nous conduit peu Ă  peu au modĂšle dystopique de la surveillance Ă©tatique permanente, que nos sociĂ©tĂ©s dĂ©mocratiques doivent ĂȘtre en mesure d’éviter. Il n’y a en effet qu’un pas entre l’identification d’«évĂ©nements» dĂ©terminĂ©s et celle des individus sur la base de leurs donnĂ©es biomĂ©triques. Sur ce plan, le droit europĂ©en souvent invoquĂ© est de peu de secours. Si le RĂšglement sur l’intelligence artificielle adoptĂ© le 13 juin 2024 fait en thĂ©orie de la «notation sociale» une ligne rouge, son article 5 permet bien l’utilisation de systĂšmes d’identification biomĂ©trique Ă  distance en temps rĂ©el dans des espaces accessibles au public Ă  des fins rĂ©pressives, en cas de «menace rĂ©elle et prĂ©visible d’attaque terroriste» ou encore en vue de «la localisation ou l’identification d’une personne soupçonnĂ©e d’avoir commis une infraction pĂ©nale» punissable d’une peine d’au moins quatre ans d’emprisonnement. Autrement dit, le lĂ©gislateur est seul arbitre du choix de sociĂ©tĂ© que constitue le dĂ©ploiement de la vidĂ©oprotection algorithmique, sur lequel il sera difficile de revenir.

Enfin, ce dĂ©bat doit ĂȘtre l’occasion de remĂ©dier aux nombreuses lacunes du rĂ©gime juridique de la vidĂ©oprotection classique. A titre d’exemple, le fonctionnement comme la composition des Commissions dĂ©partementales de vidĂ©oprotection, crĂ©Ă©es dĂšs 1995 et dotĂ©es du pouvoir d’annuler l’implantation d’un dispositif illĂ©gal depuis la Loppsi 2, sont parfaitement obscurs et doivent ĂȘtre encadrĂ©s. La loi devrait par la mĂȘme occasion prĂ©voir l’institution systĂ©matique et dĂšs la premiĂšre camĂ©ra, avec ou sans IA, d’un comitĂ© d’éthique de la vidĂ©oprotection – facultĂ© actuellement laissĂ©e Ă  la totale discrĂ©tion des collectivitĂ©s. Une composition transparente et un certain nombre de fonctions consultatives obligatoires permettraient, notamment, d’associer de maniĂšre systĂ©matique les administrĂ©s Ă  la politique de sĂ©curitĂ© locale.

Ce n’est qu’en Ă©valuant correctement le dispositif actuel, sans prĂ©sumer de la nĂ©cessitĂ© de le pĂ©renniser et certainement pas en l’état, que ces trois conditions de la rĂ©ussite du dĂ©bat sur la vidĂ©oprotection algorithmique qui s’annonce pourront ĂȘtre remplies.