Aller au contenu principal Activer le contraste adaptéDésactiver le contraste adapté
Plus de 40 000 produits accessibles à 0€ de frais de courtage
Découvrir Boursomarkets
Fermer

JO 2024-Comment la France prévoit d'utiliser la vidéosurveillance algorithmique
information fournie par Reuters 08/03/2024 à 12:26

par Juliette Jabkhiro et Julien Pretot

La France a estimé que l'expérimentation de la vidéosurveillance algorithmique, qui sera utilisée lors des Jeux olympiques et paralympiques, avait été un succès à l'occasion de sa première utilisation le week-end dernier au concert de Depeche Mode à Paris.

En 2023, la législation française a autorisé l'utilisation de la vidéosurveillance algorithmique pour une période d'expérimentation incluant les Jeux olympiques et paralympiques de Paris 2024 afin de détecter des événements ou des comportements jugés "anormaux".

Les associations de défense des droits humains alertent sur les menaces de cette technologie sur les libertés individuelles.

Reuters a rencontré Matthias Houllier, le cofondateur de Wintics, l'une des quatre entreprises à avoir développé un logiciel de vidéosurveillance algorithmique utilisé lors des Jeux olympiques après un marché public d'un montant total de huit millions d'euros maximum.

"On ne parle pas de vidéosurveillance, on préfère le terme de vidéoprotection", a dit Matthias Houllier, dont le logiciel a été testé par la Préfecture de police de Paris lors des concerts du groupe Depeche Mode, les 3 et 5 mars à l'Accor Arena.

"Le 3 mars, tout a plutôt bien fonctionné, tous les clignotants sont au vert", a déclaré mardi le Préfet de police de Paris Laurent Nunez lors d'une audition au Sénat.

QU'EST-CE QUE LA VIDÉOSURVEILLANCE ALGORITHMIQUE ?

Les logiciels d'intelligence artificielle développés par Wintics et trois autres entreprises (nommées Videtics, Orange Business et Chapsvision) utilisent les systèmes de vidéosurveillance déjà existants et analysent en temps réel les images issues des caméras de surveillance pour aider à identifier de potentielles menaces sécuritaires.

Les algorithmes sont entraînés par un système d'apprentissage automatique afin d'anticiper des "événements" considérés comme anormaux et d'envoyer des alertes en conséquence. Les utilisateurs du logiciel décident ensuite si l'alerte est légitime et s'il est nécessaire d'agir.

QUE VA RECHERCHER LA VIDÉOSURVEILLANCE ALGORITHMIQUE ?

Selon la loi, huit "événements" peuvent être alertés par la vidéosurveillance algorithmique pendant les Jeux : le non-respect du sens de circulation, un mouvement de foule, une grande densité de personnes, la présence d'objets abandonnés, la présence ou l'utilisation d'armes, la présence d'une personne au sol à la suite d'une chute ou un départ de feu.

Parmi ces catégories, des seuils spécifiques basés par exemple sur le nombre de personnes ou le type de véhicule, et paramétrés manuellement par les utilisateurs du logiciel, selon l'événement, le lieu ou la menace, permettront de déclencher une alerte.

QUI VA UTILISER LA VIDÉOSURVEILLANCE ALGORITHMIQUE ?

La police et la gendarmerie nationale, la police municipale, les pompiers, les services de sécurité des transports publics concernés par la sécurité des Jeux seront autorisés à utiliser la vidéosurveillance algorithmique.

Les agents qui utiliseront Wintics, dont le logiciel sera déployé dans la région parisienne et les transports publics, devraient participer à une journée de formation avant l'événement, selon Matthias Houllier.

"On fait en sorte que l'utilisation du logiciel soit la plus intuitive possible."

LA RECONNAISSANCE FACIALE SERA-T-ELLE UTILISÉE ?

La loi relative aux Jeux olympiques et paralympiques de Paris 2024 exclue la reconnaissance faciale, dont le ministère de l'Intérieur a assuré que c'était une ligne rouge.

Mais les organisations de défense des droits humains demeurent inquiètes. "La vidéosurveillance algorithmique (VSA) comporte des risques en matière de droits humains, notamment des atteintes à la vie privée", a dit à Reuters Katia Roux d'Amnesty International France. "Les logiciels qui permettent la VSA peuvent facilement permettre la reconnaissance faciale. C'est simplement un choix de paramétrage."

Katia Roux ajoute qu'Amnesty International fait campagne auprès des législateurs pour interdire la reconnaissance faciale dans la loi française, expliquant que le cadre législatif reste trop flou. "Les garanties techniques et juridiques aujourd'hui sont insuffisantes."

Interrogé sur les inquiétudes de ces associations, Matthias Houllier assure que la reconnaissance faciale va à l'encontre de l'éthique de Wintics et que son logiciel ne l'autorise en aucun cas.

"Il n'y a pas de méthodes d'identification personnelle dans nos algorithmes", a-t-il dit. "C'est exclu techniquement."

COMMENT LA CONFIDENTIALITÉ VA ÊTRE PROTÉGÉE ?

Le ministère de l'Intérieur a annoncé la création d'un comité d'évaluation pour protéger les libertés individuelles lors de l'expérimentation.

Dirigé par Christian Vigouroux, président de section honoraire du Conseil d'Etat, le comité est composé d'un collège de personnalités parmi lesquelles figurent la présidente de la Commission nationale de l'informatique et des libertés (CNIL) Marie-Laure Denis, deux députés, deux sénateurs et un maire.

(Reportage de Juliette Jabkhiro et Julien Prétot, version française Vincent Daheron, édité par Kate Entringer)

0 commentaire

Signaler le commentaire

Fermer