Suivez-nous

Robots

Reconnaissance faciale : les drôles de méthodes de la police américaine

La reconnaissance faciale peut s’avérer redoutablement efficace, mais conduire aussi à des erreurs sur la personne. Surtout si elle est mal utilisée…

Il y a

le

reconnaissance faciale
© Pixabay

Alors que l’on apprend que la ville de San Francisco vient de voter l’interdiction de l’utilisation publique de la reconnaissance faciale sur son territoire, les autorités de police ont de plus en plus recours à ces technologies afin d’identifier, voire de confondre les personnes suspectées d’avoir commis crimes et délits, même si de nombreuses preuves indiquent que ces dernières sont loin d’être infaillibles. Selon un rapport récent, il semblerait que la reconnaissance faciale soit utilisée de certaines façons qui peuvent poser question.

Un rapport du Center on Privacy & Technology du Georgetown Law Center, publié jeudi, détaille un certain nombre de méthodes dans lesquelles les organismes d’application de la loi prennent leurs propres libertés créatives lorsqu’il s’agit d’introduire des photos dans les bases de données de reconnaissance faciale, ce qui augmenterait la probabilité d’une arrestation imprécise et injuste.

Ainsi,une présentation de la police de New York détaillant les méthodes suggérées pour l’utilisation de la reconnaissance faciale a été mise au jour dans le rapport. Celle-ci décrit certains cas qui ont réellement fonctionné, mais il ne décrit pas en détail les cas ou les approches qui ont échoué. Un exemple détaillé dans le rapport montre que les détectives d’une organisation qui effectue des recherches de reconnaissance faciale pour la police de New York ont utilisé une image de l’acteur Woody Harrelson extraite d’une recherche sur Google Images car le suspect lui ressemblait. Lorsque l’algorithme a détecté une correspondance dans le système avec la photo d’Harrelson, les enquêteurs l’ont utilisée pour trouver un suspect. Cette même organisation qui travaille avec la Section de l’identification faciale (FIS) de la police de New York a également utilisé la photo d’un joueur des Knicks de New York qui ressemblait au double d’un suspect d’agression.

Sosies, portraits-robots approximatifs, tout est bon pour alimenter l’algorithme

Le rapport indique également qu’au moins six services de police du pays procèdent à des analyses criminalistiques au moyen de systèmes de reconnaissance faciale. Ainsi, plutôt que de tenter de faire un recoupement d’une personne dans le système avec une photo prise du visage d’un suspect, ils essaient de trouver des correspondances à partir de dessins semi-réalistes ou de maquettes informatiques. Des croquis qui ne sont pas générés à partir de photographies réelles, mais à partir de ce dont se souvient un témoin oculaire, ce qui n’est pas un récit particulièrement fiable. En fait, il s’agit de confronter le bon vieux portrait-robot à l’intelligence artificielle. Robot vs. robot en quelque sorte…

Plus préoccupant : en plus d’utiliser les photos et les croquis du sosie d’une célébrité, les services de police modifieraient également des photos avant de les transmettre à l’algorithme. Le rapport indique par exemple que la police de New York a remplacé toutes les caractéristiques faciales par celles qu’elle a trouvées sur Google Image Search, comme remplacer une bouche ouverte par une image de lèvres trouvée sur Internet ou des yeux fermés par des yeux ouverts trouvés en ligne. Les détectives ont également combiné deux visages différents qui se ressemblent en un seul afin de trouver l’une des personnes incluses. Ils ont également utilisé à la fois l’effet Flou et l’outil Cloner l’étampe pour optimiser les photos avant de les rechercher dans le système, ce qui parait assez bizarre.

Le sergent Jessica McRorie, porte-parole adjointe du commissaire adjoint à l’information publique, n’a pas nié dans un courriel envoyé à nos confrères de Gizmodo les allégations selon lesquelles la police de New York aurait utilisé des photos doubles pour son système de reconnaissance faciale en vue d’identifier un suspect, et remplacé des traits faciaux sur certaines photos par des traits trouvés sur Google Image search, qualifiant la reconnaissance faciale de « simple piste » et a déclaré qu’il ne s’agit pas d’une identification positive et qu’il n’y a pas de motif probable d’arrestation. Elle n’a cependant pas précisé si le ministère avait édicté un règlement explicite interdisant aux agents de l’utiliser comme une identification positive, plutôt que comme une simple assistance. Selon elle, « Personne n’a jamais été arrêté sur la seule base d’une reconnaissance faciale. Comme pour toute piste, une enquête plus approfondie est toujours nécessaire pour trouver un motif probable d’arrestation. La police de New York a fait un usage délibéré et responsable de la technologie de reconnaissance faciale. Nous comparons des images de scènes de crime pour arrêter des photos dans les dossiers des forces de l’ordre. Nous n’effectuons pas de collecte massive ou aléatoire d’enregistrements faciaux à partir des systèmes de caméras de la police de New York, de l’Internet ou des médias sociaux. Dans chaque cas, qu’il s’agisse d’identifier une personne perdue ou disparue ou l’auteur d’un crime violent, l’analyse de reconnaissance faciale commence par une image spécifique qui est comparée à d’autres images spécifiques pour développer une piste possible. Cette piste devra faire l’objet d’une enquête par des détectives afin d’élaborer des preuves qui permettront de la vérifier ou de l’écarter. »

L’utilisation de la reconnaissance faciale par la police de New York a généré des pistes qui ont finalement conduit à l’arrestation récente d’un homme pour avoir jeté de l’urine sur des conducteurs du MTA et d’un autre pour avoir poussé un passager du métro sur les rails. Les pistes générées ont également conduit à des arrestations pour homicides, viols et vols qualifiés. La police de New York a également utilisé la reconnaissance faciale dans le cadre d’enquêtes non criminelles : une femme hospitalisée pour la maladie d’Alzheimer a par exemple été identifiée par une vieille photo d’arrestation pour conduite sans permis.

Un besoin d’encadrement renforcé des usages de la reconnaissance faciale par les autorités

Cette approche expérimentale des systèmes de reconnaissance faciale a plusieurs conséquences troublantes. Comme le souligne le Georgetown Law Center dans le rapport, ces modifications et ces choix de photos peu orthodoxes peuvent mener à une identification inexacte. Aux fins de l’enquête, cela signifie que la mauvaise personne pourrait être arrêtée. C’est pourquoi, dans la liste de recommandations figurant à la fin du rapport, le Centre exhorte ces organismes à définir clairement à l’intention des agents à ce à quoi ressemble une « corroboration suffisante d’une correspondance possible » et à interdire complètement la reconnaissance faciale comme mesure d’identification positive, « en toute circonstance ». En d’autres termes, les policiers ne devraient pas interprêter aveuglément une correspondance algorithmique comme indiquant le suspect définitif.

« Au fur et à mesure que la technologie derrière ces systèmes de reconnaissance faciale continue de s’améliorer, il est naturel de supposer que les pistes d’enquête deviennent plus précises », affirme le rapport. « Pourtant, en l’absence de règles régissant ce qui peut et ne peut pas être soumis en tant que photo d’enquête, c’est loin d’être une garantie. »

Nous n’en sommes qu’aux premières étapes du déploiement de ces systèmes de surveillance à grande échelle, et nous voyons déjà comment ils peuvent être éventuellement utilisés d’une manière qui pourrait nuire à certaines catégories de populations. Ces algorithmes sont aussi parfois mauvais dans leur travail, que ce soit en matière de répression de la délinquance ou dans d’autres domaines comme celui des voitures autonomes. Cela révèle un problème plus général : celui de la confiance que l’on peut placer dans un programme informatique quand il s’agit de liberté individuelle, de démocratie et de respecter le principe de présomption d’innocence.

Cliquez pour commenter

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Dernières news

Les bons plans

Les tests