Passer au contenu

Ce lycéen de 17 ans a créé une IA pour détecter les deepfakes

Son système serait plus précis et plus rapide que les outils déjà existants.

Le talent n’attend pas le nombre des années et Greg Tarr, un lycéen irlandais de 17 ans résident de la ville de Cork, vient une nouvelle fois de le prouver. Le jeune homme a en effet remporté le concours BT Young Scientist & Technology, une compétition destinée aux étudiants du pays qui a pour but d’encourager l’intérêt pour les science et les innovations technologiques.

Un outil plus efficace que les systèmes déjà existant ?

Greg Tarr a développé un système d’intelligence artificielle capable de détecter les deepfakes. Pour rappel, il s’agit de techniques qui permettent de créer de fausses vidéos ou extraits vocaux très réalistes et de faire dire à quelqu’un des propos qu’il n’a pas tenus. Selon The Irish Times, l’étudiant a insisté dans sa présentation sur l’impact social préjudiciable de ces créations. Elles peuvent par exemple influencer le cours d’une élection, ou salir l’image d’une personne.

Le problème est devenu majeur, si bien que de nombreux chercheurs tentent de créer des outils de détection fiables. Greg Tarr a analysé plusieurs d’entre eux. Il les juge certes efficaces, mais bien trop complexes à réaliser pour les déployer à grande échelle. Le jeune homme s’est alors décidé à créer sa propre intelligence artificielle basée sur des techniques d’apprentissage automatique.

Les résultats semblent au rendez-vous et suffisamment convaincants pour convaincre le jury. Le jeune homme affirme ainsi que son outil est plus précis et plus rapide que les systèmes actuellement en pointe. Il revendique un taux de réussite de 94,3 % sur une deepfake d’un discours de la reine Élisabeth II.

Ces concours réservés aux jeunes talents donnent souvent lieu à des innovations très impressionnantes. Nous vous parlions par exemple en 2019 d’Alaina Gassler, une jeune américaine alors âgée de 14 ans. Elle a conçu un système permettant de supprimer les angles morts au volant. Une prouesse d’autant plus remarquable que ce problème très gênant n’a jamais été résolu par les constructeurs auto.

📍 Pour ne manquer aucune actualité de Presse-citron, suivez-nous sur Google Actualités et WhatsApp.

Newsletter 🍋

Abonnez-vous, et recevez chaque matin un résumé de l’actu tech

[ SOURCE ]

3 commentaires
3 commentaires
  1. Le domaine de l’IA est globalement open source donc pourquoi ne pas avoir donné le lien vers un repo Github ou autre pour que d’autres puissent évaluer le projet ?
    C’est bien d’avoir fait ça à 17 ans, mais je doute fortement que son modèle soit meilleur que ceux qui existent.
    Je travaille dans ce domaine, je suis ingénieur en machine learning. Et honnêtement, entraîner un modèle sur un flux vidéo ça ne demande pas le cerveau d’Einstein, ça demande beaucoup de puissance de calculs et un gros porte-monnaie.
    C’est ce que font les ingénieurs et chercheurs des GAFA dans le domaine de l’IA.

    Ses résultats de 94,3% n’ont aucun sens sans donner le contexte. Quel est le jeu de données ? Quelle est la métrique utilisée ? Accuracy ? Precision ? Recall ?
    C’est comme dire je gagne 10,000 /mois sans donner la monnaie associée.
    10,000€ et 10,000 roupies c’est pas la même chose.
    De plus, comment a-t-il obtenu ce chiffre ? Il faut évaluer son modèle sur un jeu de test, composé de données qui ne se trouvent pas dans les jeux d’entraînement et de validation. Car oui on peut obtenir un très haut score sur les données d’entraînement. Mais dès qu’on passe au jeu de test puis aux données réelles c’est pas la même histoire…

    Bref, une fois de plus un article rempli d’approximations juste pour mettre en avant un singe savant comme on en sort 10 fois par an.

    1. Sans oublier les biais présents dans les jeux de données. C’est-à-dire une répartition inégale des exemples dans les données qui induisent fatalement des biais dans le modèle entraîné…
      C’est un sujet simple en apparence mais tout se joue sur les détails dans ce domaine. C’est bien plus complexe qu’on ne le pense…

  2. Le principe fondamental des GAN (ce qui génère les deepfakes) ne rendent-ils pas par nature toutes méthodes de détection caduques ? Si on trouve un détecteur de deepfakes le même moteur qui a servi à la création peut inclure dans son entrainement le détecteur comme discriminateur … le GAN est composé d’au moins deux réseaux, le premier est le générateur, il génère un échantillon (ex. une image), tandis que son adversaire, le discriminateur essaie de détecter si un échantillon est réel ou bien s’il est le résultat du générateur.
    Ou c’est moi qui ne comprends pas les GAN ?

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *