Le 23 mars dernier, l’Assemblée Nationale a adopté l’article 7 du projet de loi relative aux jeux olympiques, autorisant l’utilisation de la vidéosurveillance algorithmique. Une décision prise pour renforcer la sécurité de l’événement qui ne fait pas l’unanimité.
Avec des milliers d’athlètes et des millions de visiteurs venus du Monde entier, les Jeux Olympiques qui se dérouleront en France du 24 juillet au 8 septembre 2024 constituent un véritable casse-tête sécuritaire.
Pour y faire face, le gouvernement a souhaité mettre en place des capacités de surveillance supplémentaires dont ces caméras d’un nouveau type qui fonctionnent avec l’Intelligence Artificielle.
Vous avez dit intelligente ?
Déjà bien implantée dans les rues, les zones commerciales et les lieux de forte fréquentation, la vidéosurveillance fait désormais partie de notre panorama quotidien. Mais jusqu’à présent, il s’agissait d’une technologie classique fonctionnant avec des caméras analogiques placées sous le contrôle d’opérateurs humains formés à leur exploitation.
Les dispositifs mis en œuvre pour 2024 font quant à eux appel à des caméras dites « augmentées »qui analysent automatiquement les situations grâce à des algorithmes spécifiques et peuvent signaler rapidement des colis, des comportements suspects ou des mouvements de foule. Cette nouvelle vidéosurveillance, plus économe en ressources humaines (un seul agent peut gérer des dizaines, voire des centaines de caméras) permet en outre aux forces de sécurité de gagner un temps précieux entre l’identification d’une anomalie et l’intervention, notamment dans des lieux aussi animés que les transport en commun et les manifestations sportives ou culturelles. Un sérieux atout dans une période où le risque terroriste reste particulièrement élevé.
La surveillance, oui mais jusqu’où ?
Même si l’utilisation de cette technologie entre dans un cadre juridique spécifique « expérimental et temporaire » qui la limite théoriquement dans le temps (à priori jusqu’au 31 décembre 2024), elle ne suscite pas moins des inquiétudes, notamment chez certains élus et du côté de la CNIL (Commission Nationale de l’Informatique et des Libertés) .Ils craignent que le déploiement de ces technologies puisse dériver vers une surveillance de masse permanente et l’ identification biométrique des individus par reconnaissance faciale. Face à un système algorithmique entièrement automatisé, on peut aussi redouter des interprétations erronées de gestes ou d’attitudes émanant d’un individu ou d’un groupe d’individus. En clair, quelles seraient les conséquences si la machine se trompait ?
A l’heure ou l’IA et l’apparition d’algorithmes de plus en plus sophistiqués comme Chat GPT font l’objet de nombreux débats pour en assurer l’encadrement à la fois déontologique et législatif dans le respect des droits fondamentaux, les interrogations sur l’emploi de la vidéosurveillance augmentée risquent fort de se multiplier.