« J’étais complètement sidéré. C’est un moment étrange où l’on a l’impression de s’écouter parler. » Après avoir reçu de nombreux messages de proches, David Greene, un animateur chevronné de la radio publique américaine NPR, s’est rendu sur l’IA de Google NotebookLM.
Ce dernier génère en effet des podcasts à la demande et il a clairement eu l’impression d’entendre sa voix, jusqu’à ses propres tics de langage qu’il a tenté de gommer au fil du temps.
Le journaliste a en tout cas décidé d’attaquer Google en justice et il l’accuse d’avoir violé ses droits en créant un produit qui reproduit sa voix sans autorisation ni compensation financière. Il estime que les utilisateurs peuvent lui faire dire des choses qu’il n’a jamais dites.
Un tribunal de comté de Santa Clara en Californie pourrait être saisi afin de déterminer si la ressemblance est suffisamment frappante pour que le public puisse reconnaître sa voix et prendre des mesures adaptées, rapporte le Washington Post.
Une loi pour encadrer l’utilisation des voix
De son côté, José Castañeda, porte-parole de Google, nie catégoriquement : « Ces allégations sont sans fondement. La voix masculine utilisée dans les aperçus audio de NotebookLM est celle d’un acteur professionnel rémunéré par Google. »
Cette affaire aborde en tout cas un problème plus large. On sait d’ailleurs que les voix artificielles utilisées sur de nombreux LLM sont entraînées sur de très larges bases de données d’écrits et des discours de personnes réelles, à leur insu, estime le prestigieux quotidien américain.
La justice devra donc trancher si la voix s’approche suffisamment de l’originale pour constituer une contrefaçon. Il faudra en outre savoir si cette voix est suffisamment connue du grand public pour qu’il la reconnaisse en utilisant NotebookLM et si cela crée un préjudice à David Greene.
Ce cas pourrait aussi avoir des conséquences politiques. En effet, des projets de loi ont été déposés dans plusieurs États américains et au Congrès afin d’encadrer l’utilisation des voix dans les outils d’IA. Il existe d’ailleurs d’ores et déjà un texte législatif qui garantit aux personnalités publiques des droits de contrôle sur la monétisation de leur image.
Le précédent Scarlett Johansson
Cette polémique n’est pas sans rappeler celle survenue en mai 2024. À ce moment-là, de nombreux observateurs étaient éblouis par la prouesse technique d’OpenAI, qui venait de présenter son nouveau modèle GPT-4o qui, en plus de mieux comprendre l’environnement qui nous entoure, est capable d’interagir de manière plus naturelle avec les humains lorsqu’il utilise une interface vocale.
De son côté, la star hollywoodienne Scarlett Johansson était “choquée” et “en colère”. En effet, l’une des voix utilisées par GPT-4o, celle de “Sky”, ressemblerait à la sienne. Plus d’informations à ce sujet dans notre précédent article ici.
📍 Pour ne manquer aucune actualité de Presse-citron, suivez-nous sur Google Actualités et WhatsApp.
