Passer au contenu

Des chercheurs en IA ont développé un détecteur de mensonges en ligne, pour le meilleur ou pour le pire ?

Des chercheurs américains veulent réinventer le bon vieux détecteur de mensonges dans une version animée par l’intelligence artificielle.

Nous l’avons tous vu au cinéma ou dans des séries, au cours de scènes souvent cruciales pour l’intrigue, dans lesquelles le suspense est à couper au couteau : les américains raffolent des détecteurs de mensonges. Et apparemment croient dur comme fer aux résultats qu’ils fournissent. Il faut dire que le culte de vérité et par opposition, du parjure, imprègne profondément la société américaine. Quitte à produire quelques dégâts collatéraux.

Il n’est donc pas tout à fait étonnant que certains se soient emparés du sujet pour tenter d’en développer une version en ligne. C’est ce à quoi s’est attelé un groupe de chercheurs de la Florida State University et de Stanford en bâtissant un “polygraphe en ligne” qui utilise l’apprentissage automatique pour détecter la tromperie à partir d’un simple texte. Une invention qui laisse sceptiques quelques spécialistes de l’apprentissage automatique, qui pensent que même si elle fonctionne (ou surtout si elle fonctionne), cette notion de détecteur de mensonges sur Internet s’avère déjà plus problématique que prometteuse.

De quoi s’agit-il exactement ? L’équipe de scientifiques a développé un système qui utilise des algorithmes automatisés pour séparer la vérité et le mensonge, ce qu’ils appellent la première étape vers “un système polygraphique en ligne – ou un système prototype de détection pour la tromperie par ordinateur lorsque l’interaction face à face n’est pas disponible”. Ces derniers affirment qu’à travers une série d’expériences, ils ont été en mesure de former un modèle d’apprentissage machine qui est capable de faire la distinction entre les individus menteurs et les individus sincères en regardant une conversation individuelle entre deux personnes qui tapent en ligne, tout en utilisant seulement le contenu et la vitesse de leur frappe – à l’exclusion de tout autre indice physique que les polygraphes utilisent habituellement pour discerner le mensonge de la vérité.

Dis-moi comment tu frappes, je te dirai si tu mens, vraiment ?

Dans le cadre de l’étude Florida State University et Stanford, quarante participants ont joué à plusieurs reprises à un jeu que les chercheurs ont appelé “Real or Spiel” via le service de conférence vidéo à plusieurs participants de Google Hangouts. Dans le jeu, des paires de ces individus, anonymisés, répondraient aux questions des autres dans une sorte de jeu de rôle. Au début de chaque jeu, on disait à un participant s’il était un “pécheur” qui mentait en réponse à chaque question, ou un “saint” qui disait toujours la vérité. Les chercheurs ont ensuite pris les données textuelles résultantes, y compris le moment exact de chaque réponse, et en ont utilisé une partie comme données de formation pour un modèle d’apprentissage machine conçu pour trier les pécheurs des saints, tout en utilisant le reste de leurs données pour tester ce modèle.

Ils ont alors découvert qu’en ajustant leur modèle d’apprentissage machine, ils pouvaient identifier les fraudeurs avec une précision pouvant atteindre 82,5%. Les humains qui ont regardé les données, en revanche, ont à peine fait mieux que supposer. L’algorithme pouvait repérer les individus menteurs en s’appuyant sur des indices comme des réponses plus rapides que les individus sincères, une plus grande manifestation d’émotions négatives, plus de signes d’anxiété dans leurs communications, un plus grand volume de mots, et des expressions de certitude comme “toujours” et “jamais”. Les individus sincères, en revanche, utilisaient davantage de mots d’explication causale comme “parce que”, ainsi que des mots d’incertitude, comme “peut-être” et “deviner”. Comme si une certaine forme d’incertitude pouvait être en quelque sorte révélatrice de la sincérité.

“Nous avons utilisé une approche de modélisation statistique et d’apprentissage automatique pour analyser les indices des conversations et, à partir de ces indices, nous avons fait différentes analyses pour déterminer si les participants mentaient”, explique Shuyuan Ho, professeur à l’École de l’information de l’UES. “Les résultats étaient incroyablement prometteurs, et c’est la base du polygraphe en ligne.”

Mais lorsque nos confrères de Wired ont montré l’étude à quelques universitaires et experts en apprentissage machine, ces derniers ont répondu avec un profond scepticisme. Non seulement l’étude ne sert pas nécessairement de base à un algorithme fiable de révélation de la vérité, mais elle fait des allégations potentiellement dangereuses : Un “polygraphe en ligne” textuel défectueux, préviennent-ils, pourrait avoir des conséquences sociales et éthiques bien pires si on l’adoptait que de laisser ces décisions au jugement humain.

“C’est un résultat flatteur. Mais lorsqu’il s’agit d’humains, nous devons être très prudents, surtout quand il s’agit de savoir si le mensonge d’une personne peut entraîner la condamnation, la censure, la perte d’un emploi”, prévient Jevin West, professeur à la Information School de l’Université de Washington et critique reconnu du battage publicitaire sur l’apprentissage automatique.

Du détecteur de mensonges au détecteur de sourire…

La capacité de l’algorithme à surpasser le détecteur de mensonges inné de l’homme peut sembler un résultat remarquable. Mais les détracteurs de l’étude soulignent qu’elle a été réalisée dans le cadre d’un jeu hautement contrôlé et étroitement défini et non dans le monde réel des affabulateurs expérimentés, motivés, moins constants et imprévisibles dans des scénarios réels. Selon Cathy O’Neill, consultante en sciences des données et auteure du livre Weapons of Math Destruction publié en 2016, “Dire aux gens de mentir dans une étude est très différent que de faire mentir quelqu’un sur quelque chose sur quoi il ment depuis des mois ou des années.”

Ce à quoi le professeur Ho de la Florida State University répond en rappelant que l’étude n’est qu’un premier pas vers la détection textuelle des mensonges, et que d’autres études seraient nécessaires avant qu’elle puisse être appliquée.

Deux critiques différents ont attiré l’attention sur une étude analogue qui, selon eux, rend compte de l’erreur de faire des affirmations générales sur les capacités de l’apprentissage machine sur la base d’un scénario de test au périmètre très restreint. En 2016, des chercheurs chinois ont annoncé qu’ils avaient créé un modèle d’apprentissage automatique qui permettait de détecter la criminalité simplement en regardant le visage d’une personne. Mais cette étude était fondée sur des photos de criminels reconnus coupables qui avaient été utilisées comme pièces d’identité par la police, alors que les photos de non-condamnés de la même étude étaient plus susceptibles d’avoir été choisies par la personne elle-même ou par son employeur. La simple différence : Les condamnés avaient beaucoup moins tendance à sourire. “Ils avaient créé un détecteur de sourire”, ironise l’université de Washington Ouest.

Mais malgré les questions, et pire, les erreurs que peut générer un tel programme, faut-il pour autant jeter le bébé avec l’eau du bain ? Comme nous le disions en préambule, les américains utilisent depuis longtemps – et continuent à utiliser – le détecteur de mensonges. Pourtant, depuis leur origine, la fiabilité de ces dispositifs a été souvent critiquée. On reproche au polygraphe deux biais connus : le fait que certains individus très entraînés pourraient tromper la machine grâce à une grande maîtrise d’eux-mêmes, alors qu’à l’opposé, des individus très émotifs impressionnés par la procédure pourraient être identifiés à tort comme menteurs. Ce à quoi les défenseurs de ces dispositifs rétorquent que ces préjugés ne reposent que sur la méconnaissance totale du fonctionnement du polygraphe. D’ailleurs, les services de police américains en font encore largement usage dans tout type d’affaires, civiles ou criminelles. Le FBI est encore un très bon client de cette machine infernale, allant jusqu’à l’exploiter dans le cadre du recrutement de ses personnels. Cependant à la suite d’un arrêt de la Cour Suprême américaine en 1998, les résultats obtenus par le polygraphe ne sont généralement plus admissibles devant les tribunaux. En France, le détecteur de mensonge n’a pas valeur de preuve auprès des tribunaux et n’est donc pas utilisé lors des interrogatoires.

Finalement, le polygraphe en ligne créé par Stanford et la Florida State University n’est peut-être pas moins fiable que le bon vieux détecteur qui a certainement aidé à élucider nombre d’affaires criminelles. Ou contribué à envoyer des innocents en prison, ou des coupables en liberté.

Source

📍 Pour ne manquer aucune actualité de Presse-citron, suivez-nous sur Google Actualités et WhatsApp.

Newsletter 🍋

Abonnez-vous, et recevez chaque matin un résumé de l’actu tech

Cliquer pour commenter
Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *