Vous vous faites souvent avoir par de fausses images de personnes en ligne ? Vous êtes très loin d’être les seuls. C’est en tout cas ce que l’on peut retenir d’une étude menée par des scientifiques de l’université de Waterloo au Canada.
Les internautes peinent à distinguer le vrai du faux
Pour y voir plus clair, les chercheurs ont recruté 260 participants à qui ils ont montré vingt images. Dix d’entre elles montraient des personnes réelles récupérées sur Google images, les dix autres avaient été générées via les générateurs d’image DALL-E ou Stable Diffusion.
Une surprise de taille attendait les auteurs, puisque seulement 61 % des sondés ont été en mesure de faire la différence entre les deux. Un niveau bien plus faible que ce à quoi les scientifiques s’attendaient : 85 %.
Andreea Pocol, l’auteure principale de cette recherche souligne ainsi : “Les gens ne sont pas aussi habiles à faire la distinction qu’ils le pensent”. Ces résultats sont d’autant plus préoccupants que les participants ont pris tout leur temps pour observer les détails sur ces clichés, sans toujours obtenir de résultats probants. Or, comme le souligne la chercheuse : “Les personnes qui se contentent de faire du doomscrolling ou qui n’ont pas le temps ne remarqueront pas ces indices”.
Elle souligne l’impact politique possible de ces outils :
La désinformation n’est pas nouvelle, mais les outils de désinformation ont constamment changé et évolué. Il se peut que l’on en arrive à un point où les gens, quelle que soit leur formation, auront toujours du mal à différencier les vraies images des fausses. C’est pourquoi nous devons développer des outils pour identifier et contrer ce phénomène. C’est comme une nouvelle course à l’armement en matière d’intelligence artificielle.
Les failles des IA
Les IA, bien qu’elles s’améliorent, présentent toujours quelques failles. Elles ont notamment du mal à représenter les mains, comme nous vous l’expliquions l’année dernière. Pourquoi ? Ces modèles sont entraînés avec des données où les mains sont moins visibles que les visages et peu présentes en grand format. Pour en savoir plus, vous pouvez toujours consulter notre article à ce sujet ici.
Ce qu’il faut retenir :
- Une étude alerte sur les dangers des deepfakes
- Les participants ont eu de grandes difficultés à reconnaître les vraies personnes sur des photos, et ce même en prenant tout leur temps
- Les risques de désinformation sont omniprésents
📍 Pour ne manquer aucune actualité de Presse-citron, suivez-nous sur Google Actualités et WhatsApp.