Votre innocence dépend-elle d’un algorithme ? Vidéo-surveillance à la Coop

Le journal Le Temps nous apprend que Coop a mis en place des caméras de surveillance dopées à l'intelligence artificielle. Une annonce qui soulève de nombreuses inquiétudes. Alors que le Préposé fédéral à la protection des données et à la transparence (PFPDT) attend des réponses, nous nous proposons ici de faire un tour d'horizon des risques et des obligations.

Le journal Le Temps nous apprend que Coop a mis en place des caméras de surveillance dopées à l’intelligence artificielle. Une annonce qui soulève de nombreuses inquiétudes, non seulement sur le plan technologique, en termes de respect de nos droits fondamentaux, mais aussi des libertés individuelles et de la législation en vigueur.

https://www.letemps.ch/cyber/intelligence-artificielle/exclusif-en-toute-discretion-coop-a-deploye-des-cameras-intelligentes-dans-certains-magasins

Ce qui interpelle particulièrement, c’est la légèreté avec laquelle Coop semble traiter cette question. Alors que le Préposé fédéral à la protection des données et à la transparence (PFPDT) attend des réponses, nous nous proposons ici de faire un tour d’horizon des risques et des obligations en prenant comme référence, la législation la plus proche de nous: l’EU AI Act, réglementation européenne qui sert aujourd’hui de référence en matière d’encadrement de l’intelligence artificielle, mais aussi la nLPD dans le domaine de la protection de données. D’autant plus que le Conseil fédéral vient de prendre position sur la réglementation des IAs.

https://algorithmwatch.ch/fr/prise-position-etat-des-lieux-ia

Alors quels sont les problèmes?

1. Transparence : une obligation ignorée

La transparence ne concerne pas seulement les obligations du droit européen, mais aussi la nouvelle Loi fédérale sur la protection des données (nLPD) en Suisse. Celle-ci impose clairement aux entreprises d’informer les personnes concernées lorsque des données sont collectées et traitées, tout en garantissant un consentement éclairé de leur part.

Cela signifie qu’une notification claire et visible doit signaler aux clients de Coop la présence de ces caméras intelligentes et leur fonctionnement. Il est également essentiel que cette information précise si les données sont stockées, comment elles sont traitées et pour combien de temps. Sans cela, l’installation est déjà en infraction.

2. Discrimination et biais algorithmiques

Les systèmes d’intelligence artificielle sont souvent formés sur des bases de données peu diversifiées, ce qui les rend peu représentatives. De plus, ces bases de données peuvent être biaisées non seulement par leur contenu, mais aussi par la manière dont elles sont préparées et utilisées. Une fois présents, ces biais entraînent des discriminations systématiques, en violation des lois suisses interdisant la discrimination.

Si ces caméras sont capables d’identifier des comportements suspects, sur quels critères reposent ces analyses ? Qui décide des paramètres de « normalité » et quelles sont les conséquences pour les clients honnêtes ou non ?

3. Documentation et garanties : un manque d’informations critiques

Actuellement, aucune information précise n’a été fournie par Coop concernant les technologies employées. Ce manque de transparence est particulièrement problématique :

  • Quels sont les outils d’intelligence artificielle utilisés ?
  • Quelles évaluations internes et indépendantes ont été menées sur ces systèmes ?
  • Quel est le taux de faux positifs et de faux négatifs ?
  • Quels recours les clients ont-ils en cas d’erreur ?

Sans réponses claires à ces questions, nous sommes face à une boîte noire technologique, où la décision de savoir si un comportement est suspect repose sur un technologie opaque.

Coop a-t-elle même les réponses à ces questions ?

Un doute encore plus profond plane sur cette affaire : les responsables, cadres, techniciens et employés concernés de COOP ont-ils eux-mêmes les réponses à ces interrogations ? Ont-ils conscience des implications de ces technologies, ou s’agit-il d’une mise en place inconsidérée sans réelle mesure des risques ?

Le Parti Pirate Vaudois attend avec impatience une clarification de la part de COOP et la mise en conformité stricte des règles en matière de protection des données et de libertés individuelles. 

Pour les Pirates, l’implantation de systèmes de surveillance algorithmique fait dans l’opacité est, par définition, un mépris des droits fondamentaux des citoyens.


 Bonus: Des questions à se poser pour toutes mise en place d’outils algorithmiques ?

Bonus: Aussi dans la presse romande:

Bonus: Articles scientifiques sur le sujet

R

nous avons besoin de votre soutien

C’est par vos dons, votre présence et votre inscription que nous devenons plus forts. Que se soit pour récolter des signatures, nous aider sur les stands ou vos dons généreux vous pourrez toujours contribuer à la vie du Parti Pirate

0 commentaires

Soumettre un commentaire