Depuis le début de l’année, la tendance des modèles de langage de type ChatGPT déferle sur la planète et aucun secteur d’activité n’y échappe. C’est particulièrement vrai pour le monde de la musique où des IA permettent de générer un nouveau morceau en quelques secondes seulement.
Dans ce contexte, des petits malins, qui n’ont pas grand-chose à faire des droits d’auteurs ou de la légalité, créent leurs propres son en reprenant les voix de leurs chanteurs préférés. On a sélectionné 4 cas emblématiques pour illustrer cette tendance.
Le faux retour d’Oasis
Le groupe britannique Breezer en a eu marre d’attendre que les frères Gallagher remontent sur scène et reforment Oasis. Ils ont pris les devants et ont décidé de former une IA en lui demandant d’apprendre le modèle vocal de Liam Gallagher. Ils ont demandé à ce modèle de « chanter » des morceaux inédits qu’ils avaient eux même composé.
Le résultat, assez impressionnant, a été partagé sur YouTube. C’est une sorte de mini-album où l’on reconnaît assez bien la voix du chanteur. Le son semble toutefois saturé et on aurait aimé un peu mieux entendre son timbre vocal.
L’utilisation de l’IA est en tout cas intéressante ici car les artistes s’en servent comme d’un outil qui accompagner leur production et leurs paroles.
Un duo Drake-The Weeknd
https://www.tiktok.com/@alexisready23/video/7223587233293503749?lang=fr
Un duo entre Drake et The Weeknd est forcément un événement musical. Alors, lorsque la chanson Heart On My Sleeve a été publiée le 15 avril dernier sur TikTok, ce fut un carton immédiat avec 15 millions de vues en 48h. Problème : aucun des deux chanteurs canadiens n’a participé à ce projet, et tout a été créé en utilisant des intelligences artificielles.
C’est l’internaute Ghostwriter977 qui a posté ce morceau dont l’écoute s’avère assez spectaculaire. Cela dit, l’expérience n’est pas du tout du goût d’Universal Music Group qui détient les droits d’auteurs des deux artistes. La maison de disques a demandé et obtenu le retrait de cette chanson. C’était sans compter sur la détermination des utilisateurs des réseaux sociaux qui continuent de la partager, dans une sorte d’effet Streisand.
On a pas pu vérifier son identité mais le dit Ghostwriter977 semble assez remonté contre les maisons de disques. Il se dit auteur pour des pop stars et reproche aux majors de l’avoir très mal payé. Il précise en guise d’avertissement : « ce n’est que le début », ajoutant que « le futur est là ».
Eminem en concert malgré lui
Let me introduce you to… Emin-AI-em 👀 pic.twitter.com/48prbMIBtv
— David Guetta (@davidguetta) February 3, 2023
En février dernier, le DJ français, David Guetta, a défrayé la chronique lors d’un concert en utilisant un deepfake du rappeur Eminem.
Concrètement, il dit avoir fait générer les paroles par une première IA. Ensuite, il a utilisé une plateforme comme Uberduck ou FakeYou afin de générer la voix du rappeur. Sur scène, le faux Eminem a déclamé avec la vitesse d’élocution qu’on lui connaît : « Voici le futur de la rave. Je deviens génial et underground ». Prévoyant, David Guetta a tout de même précisé : « Evidemment, je ne prévois pas d’exploiter cela commercialement ».
Franck Sinatra… chante Britney Spears
C’est l’exemple le plus ancien mais pas le moins WTF de notre liste. En avril 2020, nos confrères de Futurism ont demandé à CJ Carr et Zack Zukowski, musiciens et experts en informatique du groupe de musique générée par algorithme DADABOTS, d’utiliser l’IA Jukebox d’OpenAI pour générer un morceau où Franck Sinatra chante « Toxic » de Britney Spears.
Et justement, au-delà de l’aspect insolite et expérimental, on peut voir à quel point l’IA a progressé en trois ans et on peut ainsi imaginer où nous en serons d’ici quelques années…
Si cet article vous a plu, vous pouvez relire notre analyse publiée en janvier dernier à ce sujet. Nous citions alors d’autres exemples d’utilisation surprenantes de l’IA en matière musicale.
📍 Pour ne manquer aucune actualité de Presse-citron, suivez-nous sur Google Actualités et WhatsApp.
Ouep, ça y est, l’IA va être prise au sérieux.