Stanford figure régulièrement dans le top 3 des meilleures universités du monde, aux côtés d’Oxford ou de Harvard. Fondé en 1891, l’établissement a déjà vu se succéder vingt prix Nobel au pupitre. On peut donc lui reconnaître une certaine valeur, donnant du crédit aux productions de ses chercheurs. Et justement, voici que cinq d’entre eux ont dévoilé un tout nouvel outil qui pourrait mettre à mal le business model d’une des apps les plus populaires du moment : ChatGPT. L’outil rend le modèle de langage GPT-3 accessible à tous avec une interface simple d’utilisation, qui ne nécessite aucune connaissance en code. Et son intelligence artificielle est si performante que les étudiants s’en servent même pour rédiger leurs dissertations.
Appelé DetectGPT, le nouveau programme de Stanford, vous l’aurez compris, permet quant à lui de reconnaître du texte rédigé par le logiciel d’OpenAI. Et le pire dans tout ça, c’est que les tests effectués jusqu’ici démontrent une fiabilité à pas moins de 95% ! Les créateurs derrière le projet souhaitent qui plus est le dédier aux professeurs, qui pourraient alors s’en servir pour vérifier que les copies de leurs élèves ne font pas la part belle au duplicate content. L’ère de la triche généralisée n’aura donc duré que quelques semaines, tout au plus. Quoique…
Ce n’est pas une première, loin de là
Bon, en réalité, les inventeurs de cette petite nouveauté (Eric Mitchell, Yoonho Lee, Alexander Khazatsky, Christopher D. Manning et Chelsea Finn) ne sont pas vraiment des précurseurs. On sait en effet que d’autres outils relativement semblables ont déjà été publiés, comme celui-ci. Mais cette fois-ci, c’est une véritable institution qui s’attaque au problème des pages générées automatiquement : Stanford. De quoi lui offrir une solution qui pourrait rapidement être adaptée à l’international grâce à la renommée de l’école, peut-être même encore plus vite que ChatGPT lui-même.
De là à y voir une commercialisation dans les règles de l’art, il n’y a qu’un pas, mais que nous ne franchirons pas pour l’instant. Des brevets devront probablement être déposés pour y parvenir et rien n’indique que la technologie arrivera à suivre la cadence des prochaines mises à jour de GPT-3.
Pas encore disponible
En prime, il faut savoir que DetectGPT n’en est encore qu’à ses balbutiements. Ni le code ni aucun cas pratique ne semblent avoir été partagés par ses développeurs pour l’instant. Sur la page du projet, ceux-ci expliquent toutefois que de premières données seront publiées “bientôt“. Mais aucune date précise ne vient s’ajouter à cette estimation.
Combien seriez-vous prêt à payer pour identifier du texte rédigé à l’aide d’une intelligence artificielle ? À l’heure où ces robots nous permettent tout de même de délivrer davantage et en un temps record, il y a finalement peu de chances pour que de nouvelles barrières à l’entrée trouvent leur public chez les professionnels…
📍 Pour ne manquer aucune actualité de Presse-citron, suivez-nous sur Google Actualités et WhatsApp.
Mdr pour info dans le cas où il modifie le texte et ne recopier pas bêtement vous l’avez profond .ça n’aurait durée que quelques semaines pour que des gens soit payé pour développer un truc inutile
À qui parlez-vous ? XD
OpenAI ; nous avons créé une marque de fabrication pour GPT-3 afin qu’il soit detectable.
Stanford ; nous avons créé un outil identifiant automatiquement la pattern de GPT-3 au sein de documents.
Les medias ; OMG GPT-3 est detectable grace aux prix nobels de chez Stanford, difficile d’y croire mais tout de meme 20 prix nobels, dont des personnes qui vont se faire voler leur travail par GPT-3, mais heureusement ce dernier est désormais completement inutile grace a leur éminent travail de recherche dans le domaine de la science lol .
Bref, les medias, ne vous etonnez pas du fait que vous allez bientot perdre votre travail aux profits d’artifices si c’est ca votre vision du journalisme.
Pour info le but de l’ia n’est pas de tricher….
J’ai testé chatGPT sur des questions de logique, de calcul et de mathématiques très élémentaires. C’est une catastrophe. Les réponses, bien que rédigées dans une syntaxe impeccable, sont le plus souvent totalement absurdes: chatGPT m’a démontré que 5 était un nombre pair, que si d’un sac contenant 2 boules blanches et 1 boules noire on retire la boule noire, on a encore une chance sur 3 d’en tirer une autre noire, que si j’ai 3 fois l’âge de ma soeur et que dans 5 ans j’aurai le double de son âge, alors j’ai 45 ans!
La seule chose que sait faire chatGPT, c’est de chercher sur Internet des infos en lien avec la question et d’en faire une synthèse plus ou moins cohérente. Une fois je lui ai demandé de completer la suite 1,1,2 3,5,8… il a reconnu la suite de Fibonacci et a donné 13 (chaque terme à partir du 3ème est la somme des deux précédents) Mais avec 1,2,2,4,8… il a trouvé 16 et même en lui disant que c’était comme la suite de Fibonacci en remplaçant l’addition par une multiplication, il n’a jamais trouvé 32.
Ce truc n’est qu’un perroquet et ne sera jamais capable d’une once d’ “intelligence “. Vouloir lui faire rédiger les réponses aux requêtes à un moteur de recherche revient à proposer de nourrir les vaches avec leurs propres bouses. Ça ne tiendra pas longtemps.
Le deep learning n’est pas du tout fait pour faire des maths et vu qu’il puise ces réponses dans des réponses humaines l’être humain non plus.
Contourner ce problème en deux étapes:
Faire lire à gpt un rapport/devoir/compte-rendu écrit par vous même.
Demander à gpt ce que tu veux avec le même style d’écriture.
Merci au revoir.
Je peux avoir un prix Nobel moi aussi?