Des caméras policières dotées d’IA testées à Edmonton, malgré de fortes inquiétudes éthiques

À Edmonton, les policiers expérimentent depuis peu des caméras corporelles capables de reconnaître en temps réel les visages de plus de 7 000 personnes jugées à haut risque. Cette initiative, menée avec Axon, le principal fournisseur nord-américain de caméras policières, constitue l’un des premiers tests grandeur nature d’une technologie longtemps considérée comme trop intrusive pour les services de police en Amérique du Nord.

Ce déploiement survient six ans après qu’Axon elle-même eut renoncé à la reconnaissance faciale, jugeant l’outil trop risqué sur le plan éthique. L’ancien président du comité d’éthique d’Axon, Barry Friedman, aujourd’hui professeur de droit à l’Université de New York, affirme que l’entreprise avance sans suffisamment de débat public ni d’évaluations indépendantes. Selon lui, un outil aux risques sociétaux importants ne devrait être utilisé qu’en présence de bénéfices clairs et démontrés.

Du côté d’Axon, le PDG Rick Smith soutient qu’il ne s’agit pas d’un lancement commercial, mais d’une étude exploratoire. Dans un billet publié par l’entreprise, il explique que tester la technologie en dehors des États-Unis doit permettre de recueillir des données objectives, d’ajuster les garde-fous nécessaires et d’informer d’éventuelles futures évaluations aux États-Unis. Edmonton sert donc de terrain d’observation, avec l’objectif déclaré d’améliorer la sécurité des policiers grâce à une détection automatisée des personnes inscrites au registre des individus violents, armés ou considérés comme dangereux.

L’essai repose sur deux listes : la première comprend 6 341 personnes associées à un avertissement de risque élevé, la seconde 724 individus faisant l’objet d’au moins un mandat d’arrestation pour crime grave. Le service de police d’Edmonton assure que la technologie vise des cas précis, et qu’elle ne sera active que lors d’interventions ciblées, pendant les heures de jour. Les agents pilotes, environ cinquante, ne verront pas eux-mêmes les alertes de reconnaissance faciale : les correspondances seront analysées après coup, au poste.

L’entreprise Motorola Solutions, concurrente d’Axon, indique qu’elle pourrait intégrer la reconnaissance faciale à ses propres caméras, mais qu’elle s’en abstient pour l’instant en raison de ses principes éthiques. L’enjeu dépasse en effet Edmonton : depuis 2023, le gouvernement de l’Alberta impose les caméras corporelles à toutes les forces policières de la province, présentées comme un outil de transparence et de réduction des délais d’enquête.

Au Canada, comme ailleurs dans le monde, la reconnaissance faciale en temps réel soulève depuis longtemps une forte opposition. Des études ont révélé des biais selon la couleur de peau, l’âge ou le genre, ainsi qu’une fiabilité moindre sur des images vidéo captées en action. Plusieurs villes et États américains ont limité son usage, tandis que l’Union européenne l’a interdite dans l’espace public, sauf pour des enquêtes majeures liées au terrorisme ou aux enlèvements. À l’inverse, le Royaume-Uni a accru son recours à la technologie, revendiquant 1 300 arrestations en deux ans.

À Edmonton, l’évaluation publique du projet commence à peine. Le bureau de la commissaire à l’information et à la vie privée de l’Alberta a reçu le 2 décembre l’analyse d’impact exigée pour les systèmes collectant des données hautement sensibles. Des chercheurs, dont le criminologue Temitope Oriola de l’Université de l’Alberta, préviennent que la ville devient un laboratoire pour une technologie dont les effets à long terme restent incertains, surtout dans un contexte de relations tendues entre police et communautés racisées.

Axon reconnaît que les limites techniques persistent, notamment l’effet de la distance, de la luminosité ou de l’angle de vue, facteurs qui peuvent réduire la précision, en particulier pour les personnes à la peau plus foncée. L’entreprise affirme que chaque correspondance devra être revue par un humain et que l’essai doit aussi déterminer quel encadrement offrir aux analystes pour réduire les risques de biais.

Pour Barry Friedman, cette transparence est précisément ce qui manque. Il juge inquiétant que l’expérimentation débute sans une évaluation scientifique robuste ni une délibération démocratique par les élus locaux. À ses yeux, confier une telle décision aux seuls services de police ou à leurs fournisseurs ne constitue pas une gouvernance acceptable. Selon lui, un projet pilote pourrait être justifié, mais seulement s’il respecte des principes de reddition de comptes qui, pour l’instant, ne sont pas au rendez-vous.

Source : AP

******

Du lundi au vendredi, Bruno Guglielminetti vous propose un regard sur l’essentiel de l’actualité numérique avec 120 secondes de Tech.

Ou encore…

Écoutez la plus récente édition de Mon Carnet,
le magazine hebdomadaire de l’actualité numérique.


En savoir plus sur Mon Carnet

Subscribe to get the latest posts sent to your email.

Laisser un commentaire