• keepthepace@slrpnk.net
    link
    fedilink
    Français
    arrow-up
    6
    ·
    edit-2
    3 months ago

    Déjà, sain petit rappel sur les algorithmes. Ensuite, je vais faire une défense prudente des algorithmes et une critique de leur déploiement:

    Comment ça réagit

    Ça réagit comme on le lui demande. Dans la plupart des cas, soit en laissant pisser soit en générant une alerte pour qu’un humain regarde et prenne une décision. Pour chacun de ces cas, ça peut rentrer dans une des choses typiquement recherchées.

    à une personne stressé qui tourne en rond en attendant son date,

    Maraudage de plus de 300s -> alerte si ça a été configuré.

    au cycliste qui profite de la place libre devant une ambassade ou une école pour s’arrêter et vérifier un truc qui fait du bruit

    Stationnement devant un endroit stratégique.

    ou un téléphone en train de tomber de sa poche ?

    dépôt d’ordure ou dépôt de colis suspect.

    Ce sont en effet des choses sur lesquelles les algos, tout comme les humains censés être chargés de la surveillance, peuvent générer des alertes. L’avantage des algos, c’est qu’ils ont beaucoup moins de mal à être neutres et non-racistes. Tu configures la maraude de 300s -> ça alertera de la blonde aux yeux bleus en habit bourgeois aussi bien que du SDF noir *. Le 2 poids 2 mesures arrive en fait quand on passe le relais à des humains. Quelque part je serais heureux que ça passe plutôt le relais à des robocops incapables de faire la différence, et que l’ensemble de la population se rendre compte d’à quel point les lois passées sont emmerdantes quand on les applique vraiment à tout le monde.

    Notez que pour trouver suspect le fait d’être statique 5 min dans l’espace public, faut déjà être bien parano.

    Mais j’aimerais qu’on arrête de foncer sur le chiffon rouge des “algos”. C’est leur déploiement et leur configuration qui sont problématiques et dont on doit parler, pas du fait que ce soit algorithmique, ce qui est en soit est un progrès: ça veut dire que plus des faits sont reportés, d’une façon plus objective et moins coûteuse. Le problème c’est que justement beaucoup d’équilibres dans notre société reposent sur le fait que certaines lois ne sont justement pas correctement ni systématiquement appliquées. Le coeur du problème est là.

    Parce qu’il y a quand même des potentiels d’avancée assez considérables pour la vie privée dans le déploiement d’algos plutôt que d’humains: Si tu déploies un système de video surveillance pour alerter des vols dans une entreprise, tu n’as besoin d’avoir d’alertes que pour ça, t’as pas besoin des videos de quand André et Ahmed se roulent des pelles dans le fond de l’entrepôt. Bien conçu un tel système peut ne conserver réellement que les informations utiles à sa mission et pas le reste.

    Il y a pleins d’études qui montrent qu par euro dépensé, la vidéo-surveillance est inefficace, je suppose que les algos sont plus éfficace pour augmenter le cout que l’éfficacité.

    Si ta métrique est le “fait signalé par euro dépensé”, si tu baisses le cout, tu augmente l’efficacité économique (à nombre de signalements corrects égaux, ce que je pense que les algos n’ont pas de problème à faire). La critique de la video-surveillance est plutôt en général qu’elle déplace les problèmes: quand une caméra est installée, les crimes se déplacent hors de sa zone mais ne baissent pas dans la zone globale.

    * Si vous voulez parler du racisme qui émerge de certains entraînements de modèle, on peut, mais sachez que ce n’est absolument pas systématique et que s’en prémunir ou non est une volonté politique, pas une contrainte technique.

    • Camus [il/lui]@lemmy.ca
      link
      fedilink
      Français
      arrow-up
      4
      ·
      edit-2
      3 months ago

      que s’en prémunir ou non est une volonté politique, pas une contrainte technique.

      Vu les propos du ministre de l’Intérieur actuel, ce n’est pas forcément hyper rassurant

      • keepthepace@slrpnk.net
        link
        fedilink
        Français
        arrow-up
        2
        ·
        3 months ago

        Je te rejoins tout à fait. Mais critiquez pas la matraque, critiquez celui qui l’utilise, et adaptons la lutte. C’est bien plus facile de corriger le racisme dans un algo que dans une institution de 100 000 personnes. Exigeons que ces algos soient ouverts et examinables, ainsi que les façons de leurs configurations.

        Mettez vous un moment dans la peau d’un dirigeant raciste qui décide de faire taper sur les Arabes. Vous faites une réunion avec quelques préfets, vous leur dites des trucs plein de dogwhistles “Bon, maintenant je veux qu’on embarque plus facilement les gens louches et que la peur change de camp. Faut pas se mentir, les suspect on les reconnaît vite. Vous m’avez compris.”

        L’algo, lui, il a pas compris. Il regarde pas CNews et si on veut l’inspecter, on peut facilement le “mettre sur le grill” pour tester ses biais. Vous devez à ce moment là, si vous voulez les rendre racistes, donner des ordres et instructions, écrites, prouvable et aisément annulables ou vous taper tout l’entraînement sur des données racistes.

        Il faut, c’est clair et certain, des organismes de contrôle (on peut pas filer plus de pouvoir à la CNIL par exemple?) mais l’organisation technique du contrôle est bien plus facile et bien plus objective. Son absence en est d’autant moins excusable et c’est là qu’il faut appuyer.

        • Camus [il/lui]@lemmy.ca
          link
          fedilink
          Français
          arrow-up
          2
          ·
          3 months ago

          vous taper tout l’entraînement sur des données racistes.

          Effectivement, et ça ne semble pas un scénario impossible non plus.

          En fait de mon côté j’ai l’impression que aglos ou pas, les politiques trouveront toujours le moyen d’appliquer leurs politiques, ça ne changera pas grand chose de ce côté là. Les polítiques vont surveiller de très près les résultats fournis par les algos, et les modifier tant qu’ils ne correspondront pas à leurs attentes