Câest sans surprise que le Premier ministre, Michel Barnier, a annoncĂ©, dans son discours de politique gĂ©nĂ©rale du 1er octobre, la gĂ©nĂ©ralisation de «la mĂ©thode expĂ©rimentĂ©e pendant les Jeux olympiques et paralympiques». En dâautres termes, la vidĂ©oprotection augmentĂ©e par algorithmes, adoptĂ©e Ă titre expĂ©rimental et temporaire par la loi du 19 mai 2023, est appelĂ©e Ă ĂȘtre pĂ©rennisĂ©e, avant mĂȘme la remise du rapport dâĂ©valuation de lâexpĂ©rimentation.
Le rĂ©gime de la «vidĂ©osurveillance», câest-Ă -dire lâenregistrement et la transmission dâimages de la voie publique aux autoritĂ©s «aux fins dâassurer la protection des bĂątiments et installations publics et de leurs abords» est dĂ©jĂ ancien. Introduite par la loi dâorientation et de programmation relative Ă la sĂ©curitĂ© du 21 janvier 1995, la vidĂ©osurveillance a Ă©tĂ© rebaptisĂ©e «vidĂ©oprotection» par la loi dâorientation et de programmation pour la performance de la sĂ©curitĂ© intĂ©rieure du 14 mars 2011 (Loppsi 2), afin de rendre le terme plus positif : le citoyen doit en permanence ĂȘtre protĂ©gĂ©, et non surveillĂ©. La logique qui conduit Ă postuler un besoin toujours plus important de protection nâa, en revanche, jamais Ă©tĂ© interrogĂ©e, de mĂȘme que lâefficacitĂ© concrĂšte de la vidĂ©oprotection sur le terrain reste Ă dĂ©montrer.
Les Ă©tudes sur ce point sont rares et le lĂ©gislateur peu intĂ©ressĂ© par leurs conclusions. Lâune des preuves est le fait que le rapport dâĂ©valuation de lâexpĂ©rimentation de la vidĂ©oprotection algorithmique doive ĂȘtre remis au Parlement le 31 dĂ©cembre 2024, soit trois mois avant la fin de lâexpĂ©rimentation en mars 2025. Sans mĂȘme attendre cette remise, le prĂ©fet de police, Laurent Nuñez, a dĂ©jĂ affirmĂ© mercredi 25 septembre que le bilan de lâexpĂ©rimentation Ă©tait «positif».
AnnoncĂ©e plusieurs mois avant la remise du rapport dâĂ©valuation, la gĂ©nĂ©ralisation de la vidĂ©oprotection augmentĂ©e par des systĂšmes dâintelligence artificielle, dont les bienfaits sont postulĂ©s semble-t-il par principe, sâinscrit dans une logique de fuite en avant sĂ©curitaire peu transparente, sans Ă©valuation des consĂ©quences sociales et Ă©thiques de lâadoption de ces technologies.
Il y a pourtant tout lieu dâinterroger le dispositif et de prendre le temps du dĂ©bat public. La vidĂ©oprotection algorithmique, telle quâelle est expĂ©rimentĂ©e actuellement en France, nâimplique certes pas la reconnaissance faciale en temps rĂ©el dans lâespace public. Il sâagit, sur autorisation prĂ©fectorale et dans le cadre de manifestations sportives ou culturelles, dâidentifier automatiquement et de signaler une sĂ©rie de huit «évĂ©nements» dĂ©finis par dĂ©cret du 28 aoĂ»t 2023. DĂ©parts de feux, vĂ©hicules roulant Ă contresens ou encore mouvements de foule font partie des «évĂ©nements» dont la dĂ©tection automatique paraĂźt de prime abord pertinente, sous rĂ©serve quâelle facilite rĂ©ellement la rĂ©action des autoritĂ©s compĂ©tentes sur le terrain, ce que seul le rapport dâĂ©valuation de lâexpĂ©rimentation permettra dâapprĂ©cier. Dâautres Ă©vĂ©nements dĂ©finis par le mĂȘme dĂ©cret laissent circonspects, Ă lâinstar de la dĂ©tection automatique de la «densitĂ© trop importante de personnes», manifestement dĂ©finie discrĂ©tionnairement par les services prĂ©fectoraux, ou encore du non-respect «du sens de circulation commun» par un piĂ©ton qui laisse entrevoir une sociĂ©tĂ© de la surveillance peu enviable. Corriger les imprĂ©cisions et lacunes
Une premiĂšre nĂ©cessitĂ© consiste Ă corriger ces imprĂ©cisions, ne serait-ce que par transparence envers les administrĂ©s et pour Ă©viter les dĂ©rives dâun dispositif qui constituerait, en lâĂ©tat, une arme terrifiante aux mains dâun gouvernement moins soucieux des libertĂ©s fondamentales. Une autre mesure indispensable rĂ©side dans lâinterdiction inconditionnelle de la reconnaissance faciale, laquelle nous conduit peu Ă peu au modĂšle dystopique de la surveillance Ă©tatique permanente, que nos sociĂ©tĂ©s dĂ©mocratiques doivent ĂȘtre en mesure dâĂ©viter. Il nây a en effet quâun pas entre lâidentification dâ«évĂ©nements» dĂ©terminĂ©s et celle des individus sur la base de leurs donnĂ©es biomĂ©triques. Sur ce plan, le droit europĂ©en souvent invoquĂ© est de peu de secours. Si le RĂšglement sur lâintelligence artificielle adoptĂ© le 13 juin 2024 fait en thĂ©orie de la «notation sociale» une ligne rouge, son article 5 permet bien lâutilisation de systĂšmes dâidentification biomĂ©trique Ă distance en temps rĂ©el dans des espaces accessibles au public Ă des fins rĂ©pressives, en cas de «menace rĂ©elle et prĂ©visible dâattaque terroriste» ou encore en vue de «la localisation ou lâidentification dâune personne soupçonnĂ©e dâavoir commis une infraction pĂ©nale» punissable dâune peine dâau moins quatre ans dâemprisonnement. Autrement dit, le lĂ©gislateur est seul arbitre du choix de sociĂ©tĂ© que constitue le dĂ©ploiement de la vidĂ©oprotection algorithmique, sur lequel il sera difficile de revenir.
Enfin, ce dĂ©bat doit ĂȘtre lâoccasion de remĂ©dier aux nombreuses lacunes du rĂ©gime juridique de la vidĂ©oprotection classique. A titre dâexemple, le fonctionnement comme la composition des Commissions dĂ©partementales de vidĂ©oprotection, crĂ©Ă©es dĂšs 1995 et dotĂ©es du pouvoir dâannuler lâimplantation dâun dispositif illĂ©gal depuis la Loppsi 2, sont parfaitement obscurs et doivent ĂȘtre encadrĂ©s. La loi devrait par la mĂȘme occasion prĂ©voir lâinstitution systĂ©matique et dĂšs la premiĂšre camĂ©ra, avec ou sans IA, dâun comitĂ© dâĂ©thique de la vidĂ©oprotection â facultĂ© actuellement laissĂ©e Ă la totale discrĂ©tion des collectivitĂ©s. Une composition transparente et un certain nombre de fonctions consultatives obligatoires permettraient, notamment, dâassocier de maniĂšre systĂ©matique les administrĂ©s Ă la politique de sĂ©curitĂ© locale.
Ce nâest quâen Ă©valuant correctement le dispositif actuel, sans prĂ©sumer de la nĂ©cessitĂ© de le pĂ©renniser et certainement pas en lâĂ©tat, que ces trois conditions de la rĂ©ussite du dĂ©bat sur la vidĂ©oprotection algorithmique qui sâannonce pourront ĂȘtre remplies.
Source: https://www.boursorama.com/actualite-economique/actualites/france-le-marche-des-cameras-de-surveillance-dopees-a-l-ia-mise-sur-les-jo-pour-grossir-e19209c4ea5eedefb57928a0f2e04720
Ah, vous parliez produit? Ben sur la papier ça va aider la police. Vous reprendre bien une petite enveloppe?
On se souviendra aussi de cette start up qui derriÚre une VSA mystérieuse faisait en fait taffer des gens à Madagascar : https://www.francetvinfo.fr/internet/intelligence-artificielle/video-a-madagascar-les-petites-mains-bien-reelles-de-l-intelligence-artificielle_6515243.html