Passer au contenu

Adobe déplore les dérives de Photoshop… et dévoile un outil pour détecter les trucages

Adobe a annoncé avoir mis au point un algorithme permettant de détecter si un visage a été falsifié.

Dans sa lutte contre les fake news, le géant américain Adobe s’est associé avec des chercheurs de l’université de Berkeley pour mettre au point un algorithme qui utilise de l’intelligence artificielle pour détecter les images manipulées.

S’il se félicite des améliorations qui ont été apportées au fil du temps à des logiciels comme Photoshop, Adobe regrette toutefois que ces outils soutiennent également la prolifération de contenus falsifiés – une pratique qui s’est intensifiée ces dernières années.

Un taux de réussite de 99%

En collaboration avec l’université, Adobe a mis au point un outil basé sur du machine learning qui permet de détecter instantanément si un visage a été modifié sur une photo. Cet algorithme s’inscrit dans la lignée d’un précédent qui avait été présenté l’année passée, et qui permettait déjà de détecter la modification dans une photo ou une vidéo.

Dans son étude, Adobe affirme que l’algorithme est capable de détecter dans 99% des cas les modifications sur un visage (réalisé avec l’outil Liquify de Photoshop) quand l’oeil humain obtient une performance beaucoup plus modeste : 53%.

La société est allée encore plus loin en travaillant sur une solution qui permet même de reconstituer le visage d’origine – bien que les résultats soient pour le moment encore assez variables. Pour obtenir un tel score, Adobe a utilisé une base de données de photo “avant / après” retouche pour entrainer l’algorithme.

L’éditeur de logiciels comme la banque d’image Adobe Stock ou le logiciel After Effects n’a cependant pas forcément l’intention de mettre à disposition du grand public cette nouvelle technologie dans l’immédiat. Le groupe souhaite probablement l’améliorer encore davantage avant de permettre à ses clients de s’appuyer sur une telle solution.

📍 Pour ne manquer aucune actualité de Presse-citron, suivez-nous sur Google Actualités et WhatsApp.

Newsletter 🍋

Abonnez-vous, et recevez chaque matin un résumé de l’actu tech

1 commentaire
1 commentaire
  1. Ce que je trouve qui serait encore bien mieux, c’est de n’avoir plus aucune modification photographiques ou cinématiques(DeepFake) lorsqu’il y a des articles de Presse ou de communication d’un service de l’état aussi(Police ou autres).

    Avec deux I.A indépendants qui certifient s’il y a des modifications(DeepFake) sur les photos ou vidéos, ça se résumerait à traiter du texte qui se vérifient sur des faits, des actions sur des sujets données. Ça encouragerait le dialogue sur du tangible.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *