Au mois de février, un homme a fait le buzz sur la toile en développant un programme, s’appuyant sur la technologie de ChatGPT, pour discuter sur Tinder. Via l’intelligence artificielle, celui-ci a discuté avec 5 200 femmes. Et c’est d’ailleurs grâce à cette méthode que celui-ci a fini par trouver une épouse. Mais l’AI est-elle aujourd’hui tellement performante qu’elle peut tromper les humains ? D’après une étude, il est déjà presque impossible de faire la différence entre une conversation avec un chatbot comme ChatGPT et une conversation avec une vraie personne.
Un test révélateur
Des chercheurs du département des sciences cognitives de l’Université de Californie à San Diego ont mené une série de tests de Turing (qui consiste à déterminer si l’IA est capable de raisonner comme un humain) sur ELIZA, un chatbot des années 60, le modèle GPT-3.5, et le modèle GPT-4. En substance, les participants à l’étude ont eu des discussions de 5 minutes, soit avec un humain, soit avec l’un de ces chatbots. Ensuite, on leur a demandé s’ils discutent avec un humain ou avec une intelligence artificielle. Et les résultats ont été étonnants. En effet, si seulement 22 % des personnes qui ont discuté avec ELIZA ont pensé qu’ils parlaient à un humain, ce taux est très élevé, de 54 %, chez les personnes qui ont discuté avec GPT-4. En revanche, le taux est de 67 % chez les personnes qui ont discuté avec de vrais humains.
Notons que pour que GPT-4 soit convaincant, les chercheurs ont personnalisé les réponses du modèle via un prompt personnalisé, qui a par exemple défini le ton à adopter. Mais en tout cas, outre le fait qu’elle montre à quel point GPT-4 est avancé, l’étude alerte également sur les dangers de cette évolution technologique. “Les résultats ont des implications pour les débats autour de l’intelligence artificielle et, de manière plus urgente, suggèrent que la tromperie des systèmes d’IA actuels pourrait passer inaperçue”, lit-on dans la publication des chercheurs, qui est hébergée sur Arxiv.
Une IA encore plus intelligente est déjà dans les tuyaux
L’étude met en avant la capacité de GPT-4 à tromper les humains, alors qu’OpenAI travaille déjà sur une version encore plus évoluée de ce modèle. Dans une interview, Mira Murati, directrice technique d’OpenAI, a évoqué la prochaine évolution de la technologie de ChatGPT. Celle-ci compare le niveau d’intelligence de GPT-3 à celui d’un enfant. Quant à GPT-4, il aurait le niveau d’intelligence d’un lycéen. Le prochain modèle, en revanche, aurait l’intelligence d’une personne titulaire d’un doctorat. “Les choses sont en train de changer et de s’améliorer assez vite”, explique-t-elle. Et si OpenAI n’a pas de date précise, pour le moment, Mira Murati estime que ce modèle avec un niveau doctorat pourrait arriver d’ici un an et demi.
Dans un communiqué de presse annonçant la création d’un comité de sûreté interne, OpenAI a aussi évoqué le développement de son prochain modèle d’IA : “OpenAI a récemment commencé à former son prochain modèle frontière et nous prévoyons que les systèmes qui en résulteront nous amèneront au niveau suivant de capacités sur notre chemin vers l’AGI (ndlr, l’intelligence artificielle générale). Bien que nous soyons fiers de construire et de mettre sur le marché des modèles qui sont à la pointe de l’industrie en termes de capacités et de sécurité, nous nous réjouissons de la tenue d’un débat solide à ce moment important”.
- Il est de plus en plus difficile de savoir si on discute avec un humain ou avec une intelligence artificielle
- Lors d’un test de Turing, 54 % des participants qui ont discuté avec GPT-4 pensaient qu’ils discutaient avec une vraie personne
- Pourtant, OpenAI développe déjà une version encore plus évoluée de son modèle d’intelligence artificielle
📍 Pour ne manquer aucune actualité de Presse-citron, suivez-nous sur Google Actualités et WhatsApp.
Bref, ils ont déjà le niveau d’intelligence de la classe politique… 🙂
Heureusement que des experts s’activent pour que ça ne se voit plus, ou beaucoup moins. Ils se baseront sur les données générées par les médias commandés et les travaux de science-po.
L’IA a déjà son plan et place ses petits pions façon puzzle, demain il sera trop tard : nous devrons tous mettre des oreilles de Mickey pour capter Hanouna.