ChatGPT est si doué qu’il peut rédiger de faux résumés de recherches scientifiques qui semblent parfaitement réels aux yeux des humains qui les évaluent. C’est ce que l’on peut retenir de ce travail effectué par des chercheurs de l’Université Northwestern et de l’Université de Chicago.
ChatGPT sait tromper son monde
Concrètement, ces derniers ont demandé à ChatGPT de rédiger de faux résumés d’articles scientifiques. Ils avaient auparavant fourni dix vrais résumés d’articles à l’IA pour qu’elle se familiarise avec le ton de ces documents.
Une fois ces textes écrits, les chercheurs les ont fait analysé par des IA capables de détecter l’écriture d’une IA, et dans 100 % des cas, la machine a su repérer la supercherie. Par contre, le détecteur anti-plagiat a certifié que ces productions étaient bien originales, ce qui est vrai.
Lorsqu’ils ont confié ces résumés à des correcteurs humains, seulement 68 % des productions de ChatGPT ont été repérées. De même 14 % des résumés réels étaient étiquetés comme faux. Dans l’ensemble, les examinateurs humains ont estimé que les faux articles étaient plus vagues et formels, mais ils jugent aussi qu’il est « étonnamment difficile » de distinguer le vrai du faux.
Face à ce nouveau défi très concret, ils exhortent donc les revues scientifiques à maintenir « des normes scientifiques rigoureuses » et à déployer des détecteurs automatiques d’IA lors de l’examen des articles.
Citée par Forbes, Catherine Gao, chercheuse à l’université Northwestern, avertit : « Le fait que nos examinateurs aient quand même manqué les résumés générés par l’IA dans 32 % des cas signifie que ces résumés générés sont vraiment bons ».
Le problème est d’autant plus grand au niveau de l’enseignement secondaire et supérieur. Un défi qui commence déjà à inquiéter les enseignants, à l’image de ce professeur d’université à Lyon qui a constaté que la moitié de ses étudiants en Master avaient utilisé ChatGPT pour un travail à faire à la maison.
Un outil pour repérer le plagiat ?
OpenAI, l’éditeur de ChatGPT, a bien identifié le problème et tente d’y remédier. L’idée est d’ajouter « un signal secret et imperceptible » à ses productions afin de montrer qu’elles ont été rédigées par une IA et non par un humain.
Scott Aaronson, le dirigeant de l’entreprise, explique à ce sujet : « Empiriquement, quelques centaines de jetons semblent suffire pour obtenir un signal raisonnable indiquant que oui, ce texte provient d’un système d’IA. En principe, vous pourriez même prendre un long texte et isoler les parties qui proviennent probablement de ce système et celles qui n’en proviennent probablement pas ».
Pour autant, rien n’est gagné, et certains experts estiment qu’il sera toujours assez simple de contourner ce dispositif.
📍 Pour ne manquer aucune actualité de Presse-citron, suivez-nous sur Google Actualités et WhatsApp.