Pour les créateurs de deepfakes, nous vivons une période faste : ces contenus générés par intelligence artificielle, capables de cloner voix et visages avec un réalisme confondant, envahissent la toile de manière incontrôlable. Voix présidentielles falsifiées, images politiques fabriquées de toutes pièces, imitations de personnes haut-placées par des escrocs, contenus intimes non consentis : il devient parfois de plus en plus difficile de distinguer le vrai du faux.
Face à cette prolifération, de nombreux États ripostent avec ce qu’ils maîtrisent le mieux : l’arsenal législatif et financier. La course à l’armement entre créateurs et détecteurs de deepfakes ne risque-t-elle pas de se terminer par un match nul, où la désinformation gagne toujours ?
Le glaive espagnol contre les chimères numériques
L’Espagne vient de dégainer l’une des armes législatives les plus tranchantes d’Europe. Les parlementaires espagnols ont avancé un projet de loi qui pourrait imposer des amendes pouvant atteindre des montants stratosphériques. Jusqu’à 38,2 millions de dollars ou entre 2 et 7 % du chiffre d’affaires annuel mondial aux entreprises qui ne labelliseraient pas correctement les contenus générés par IA. Une mesure parfaitement alignée sur l’AI Act européen, un règlement adopté l’année dernière au mois de mai.
Cette législation ajoute un aspect plus punitif aux dispositions déjà existantes qui imposaient des exigences de transparence plus strictes pour certains outils d’IA considérés comme « à haut risque » ; catégorie dans laquelle tombent les deepfakes. Óscar López Águeda, Ministre de la Transformation numérique et de la Fonction publique d’Espagne, prend apparemment le problème très au sérieux.
L’homme s’est exprimé auprès de Reuters à ce propos : « L’IA est un outil très puissant qui peut être utilisé pour améliorer nos vies… ou pour diffuser de la désinformation ». On peut se demander si une telle évidence méritait vraiment d’être soulignée ; heureusement que ces paroles sont accompagnées de gestes concrets de la part du pays.
En plus de ce nouvel étiquetage des deepfakes, le texte espagnol déclare désormais hors-la-loi les « techniques subliminales » ; à comprendre : les messages invisibles à l’œil nu, mais détectables par notre subconscient, dissimulés dans les contenus générés par IA et ciblant spécifiquement les « groupes vulnérables ».
Il impose également de nouvelles limites aux organisations tentant d’utiliser des outils biométriques comme la reconnaissance faciale pour déduire l’origine ethnique, l’orientation politique, religieuse ou sexuelle des individus.
Deepfakes et élections : les États-Unis tentent de reprendre le contrôle
De l’autre côté de l’Atlantique, le Dakota du Sud vient d’emboîter le pas à dix autres États américains en proposant une législation visant à enjoindre des sanctions civiles et pénales aux individus et groupes qui partagent des deepfakes. Dans le viseur des autorités : ceux destinés à influencer x ou y campagne politique. Pas d’approche globale comme c’est le cas sur le Vieux Continent, mais une mosaïque législative, État par État.
Cette initiative du Dakota du Sud, plus ciblée, exige que les contenus deepfakes à caractère politique créés ou partagés dans les 90 jours précédant une élection soient clairement identifiés. Quelques exemptions sont néanmoins possibles pour les journaux, les diffuseurs et les stations de radio. Inquiètes, certaines organisations avaient exprimé des préoccupations concernant d’éventuelles responsabilités juridiques pour le partage involontaire de deepfakes.
Autre exception gravée dans le marbre juridique : les deepfakes estampillés « satire ou parodie ». Un vrai casse-tête jurisprudentiel ; où s’arrête le trait d’humour et où commence la désinformation malveillante ? Une frontière assez vaporeuse, qui ne manquera pas de donner quelques migraines aux juges.
L’élan législatif américain a pris de l’ampleur au mois de janvier 2024 après l’affaire du clone numérique de Joe Biden. Généré intégralement par IA, celui-ci avait appelé au téléphone les électeurs du New Hampshire à ne pas participer à la primaire présidentielle de l’État. « Votre vote fera la différence en novembre, pas ce mardi […] Voter ce mardi ne fera qu’aider les républicains à faire réélire Donald Trump », tels avaient été ces mots selon nos confrères du journal Le Monde.
Il y avait un commanditaire derrière cette manœuvre peu honnête, un certain Steve Kramer, consultant politique qui travaillait alors pour la campagne du candidat présidentiel rival Dean Phillips. Bien mal lui en a pris, puisque la Commission fédérale des communications lui a infligé une amende de 6 millions de dollars.
La face sombre des deepfakes
Quatre États américains – Floride, Louisiane, Washington et Mississippi – ont adopté des lois criminalisant la distribution de contenus sexuels générés par IA sans consentement. Ce type de matériel, parfois appelé « revenge porn »lorsqu’il vise un individu, représente la forme la plus répandue de deepfakes préjudiciables déjà largement diffusés en ligne.
Un chercheur indépendant s’exprimant dans Wired en 2023 estimait que 244 625 vidéos pornographiques deepfakes avaient été téléchargées sur les 35 principaux sites de porno deepfake durant les sept années précédentes. Près de la moitié de ces vidéos ont été mises en ligne durant les neuf derniers mois de cette période. Une augmentation de 54 % par rapport à l’année 2022 selon l’article original. Le phénomène est donc en pleine explosion.
C’est malheureusement assez logique quand on y pense : nous sommes noyés dans un raz-de marée outils d’IA génératives, toujours plus accessibles, simples à utiliser. Que ce soit pour générer des images, des vidéos ou des sons. C’est aussi l’insuffisance des garde-fous et des protections mises en place par les entreprises responsables de ces outils qui rendent l’émergence de ces deepfakes non consentis plus courants.
Aux USA, la vague de deepfakes touche même les plus hautes sphères de la politique. Une étude publiée l’année dernière par l’American Sunlight Project a révélé qu’une femme sur six au Congrès américain avait été ciblée par des deepfakes sexuels générés par IA imitant leur apparence.
À Washington, les initiatives fédérales prennent forme. Melania Trump a récemment manifesté son appui au « Take It Down Act », une proposition législative qui transformerait le partage d’images intimes non consenties en infraction fédérale. « Observer ces adolescents, particulièrement les jeunes filles, confrontés aux défis considérables que posent les contenus malveillants en ligne comme les deepfakes, est profondément affligeant », a-t-elle souligné lors d’une déclaration officielle.
Pourtant, certaines organisations de défense des libertés numériques mettent en garde contre les potentielles dérives d’un cadre législatif trop strict. C’est le cas de l’Electronic Frontier Foundation, qui alerte sur un risque : les définitions excessivement larges contenues dans ces législations étatiques pourraient englober des contenus parfaitement légitimes.
L’EFF détaille deux cas problématiques. D’abord, une publicité politique utilisant simplement une musique dramatique en arrière-plan pour souligner certains propos d’un candidat pourrait, selon ces textes, être qualifiée de manipulation trompeuse. Ensuite, un montage vidéo composé exclusivement d’extraits authentiques, mais organisés dans une séquence présentant un candidat sous un angle défavorable, risquerait d’être assimilé à un deepfake politique. Ces deux exemples n’impliquent pourtant aucune technologie d’intelligence artificielle ni falsification d’image ou de son, mais tomberaient potentiellement sous le coup de ces nouvelles dispositions légales en raison de leur formulation imprécise.
On voit là toute la complexité de la régulation des deepfakes ; si la volonté de freiner leur propagation apparaît légitime, ces dispositifs juridiques qui essaiment partout dans le monde parviendront-ils à contenir le phénomène sans compromettre les principes fondamentaux de la liberté d’expression ? Les législateurs se retrouvent de fait dans la position inconfortable d’apprentis sorciers tentant de doser précisément leur potion réglementaire – suffisamment puissante pour neutraliser le venin deepfake, mais pas au point d’anesthésier le débat démocratique.
- L’Espagne et plusieurs États américains adoptent des lois strictes pour lutter contre les contenus générés par IA, notamment ceux utilisés à des fins politiques ou nuisibles.
- Aux États-Unis, des amendes et sanctions pénales visent les auteurs de deepfakes trompeurs, tandis que certains États criminalisent la diffusion de contenus intimes non consentis.
- Lutter contre la désinformation sans restreindre excessivement la liberté d’expression reste un équilibre très difficile à trouver.
📍 Pour ne manquer aucune actualité de Presse-citron, suivez-nous sur Google Actualités et WhatsApp.