La reconnaissance faciale de la police britannique se trompe dans 93% des cas

En Grande-Bretagne aussi, la police teste un programme de reconnaissance faciale basé sur de l’intelligence artificelle. Le programme pilote, utilisé l’année dernière lors de la finale de la Ligue de Champions, n’est pas totalement au point.

Au printemps 2017, lors de la finale de la Ligue des Champions qui s’est déroulée à Cardiff au Pays de Galles, la police a lancé un programme pilote de reconnaissance faciale. Comme celui de la police chinoise, il est conçu pour comparer le visage des participants à une base de données d’images de plus de 500 000 personnes. Un an plus tard, le résultat tombe. The Guardian rapporte que l’IA a trouvé 2470 correspondances potentielles. Mais 2297 d’entre elles se sont révélées être erronées…

La police de South Wales a révélé que le système de Reconnaissance Faciale Automatisée « Locate » n’a identifié correctement que 173 personnes parmi les 2470 correspondances potentielles, soit un taux de réussite de seulement 7%. Sur la totalité des 15 évènements où le système a été testé, seules 234 personnes ont été identifiées correctement, contre 2451 erreurs.

234 personnes identifiées sur 2470…

Locate fonctionne en prenant des images en direct à partir de caméras de vidéosurveillance installées en ville ou à des endroits spécifiques et compare directement les visages avec une base de données de 500000 images. Dans les cas où le système détecte une personne recherchée, un agent doit vérifier la correspondance faciale avant d’intervenir. Une démarche qui pour l’heure a évité toute interpellation non justifiée.

La police explique qu’aucun programme de reconnaissance faciale n’est précis à 100 %, et que les problèmes techniques « continueront d’être un problème courant à l’avenir ». Le SWP explique également que ces mauvais scores sont aussi dus à une forte proportion d’images de mauvaise qualité. Malgré tout, le SWP affirme que le programme pilote reste un « succès retentissant« , et que « l’efficacité globale de la reconnaissance faciale est élevée« .

Alors que le système de reconnaissance faciale a donné lieu à quelques arrestations, Wired cite le groupe de protection de la vie privée Big Brother Watch qui qualifie la technologie « d’outil de police dangereusement imprécis ». Selon eux, le fonctionnement du système couplé à sa fiabilité médiocre porte atteinte à la vie privée des citoyens. Ils ont aussi indiqué avoir l’intention de lancer une campagne à l’encontre de la technologie au Parlement.

Source


Un commentaire

  1. Le titre est trompeur 😉 Un taux de 7% de réussite ne veut pas dire un taux de 93% d’erreur ! Une erreur c’est prendre une personne pour une autre, un échec c’est ne pas pouvoir reconnaître. Il serait intéressant de savoir le réel pourcentage d’erreur !

Commenter

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.

Presse-Citron 2005 - 2018 | A propos | Contact | Site hébergé par Cognix Systems | Informations sur les cookies