Connaissez-vous VALL-E ? Cette intelligence artificielle créée par Microsoft a beaucoup fait parler d’elle en 2023. Grâce à un enregistrement vocal de 3 secondes, ce modèle est capable de reproduire une voix avec une incroyable efficacité. Le géant de la Tech vient justement de lever le voile sur VALL-E 2 et il va cette fois encore plus loin.
Microsoft impressionne (et on est forcé de le croire)
La société affirme en effet avoir atteint « la parité humaine pour la première fois ». En clair, il n’est pas possible de différencier ce deepfake vocal d’une vraie personne. Cette technologie est notamment capable de s’exprimer « même pour les phrases qui sont traditionnellement difficiles en raison de leur complexité ou de leurs phrases répétitives ».
Mais à quoi cela pourra-t-il bien servir ? Microsoft affirme que son modèle pourrait être utilisé dans des domaines tels que « l’apprentissage éducatif, le divertissement, le journalisme, le contenu auto-écrit, les fonctionnalités d’accessibilité, les systèmes de réponse vocale interactifs, la traduction, le chatbot ».
Pour l’heure, on est toutefois forcés de croire l’entreprise sur parole. Ce modèle est en effet uniquement conçu à des fins de rechercher, et les scientifiques peuvent donc consulter les travaux effectués par Microsoft sur le sujet. « Actuellement, nous n’avons pas l’intention d’incorporer VALL-E 2 dans un produit ou d’en étendre l’accès au public », ajoute la société.
Une technologie dangereuse ?
Elle ajoute avoir conscience « risques potentiels dans l’utilisation abusive du modèle, tels que l’usurpation d’identité vocale ou l’usurpation d’un orateur spécifique ». De nombreux acteurs malveillants se sont en effet emparés de ces outils pour mener des arnaques à grande échelle qui font froid dans le dos.
Nous vous parlions récemment de ce phénomène. On sait ainsi qu’il suffit en effet d’un court enregistrement pour reproduire quasiment à l’identique la voix d’une personne. Il est également possible de coupler cette voix à une IA génératrice semblable à ChatGPT et l’on obtient un clone virtuel particulièrement convaincant. Fort heureusement, il existe de bons réflexes à adopter pour éviter le pire, comme nous vous en parlions ici. On vous invite aussi à relire notre article dédié au précédent modèle de synthèse vocale créé par Microsoft ici.
Ce qu’il faut retenir :
- Microsoft a levé le voile sur VALL-E 2
- Il s’agit d’une IA de synthèse vocale capable de reproduire une voix humaine de manière très réaliste
- Pour l’heure, il n’est pas question de rendre cette technologie accessible au public. Ces innovations peuvent en effet permettre de mener des escroqueries très dangereuses
📍 Pour ne manquer aucune actualité de Presse-citron, suivez-nous sur Google Actualités et WhatsApp.