Il n’aura pas fallu attendre longtemps pour que ChatGPT devienne un problème au sein des universités françaises. Un exemple récent nous est fourni par nos confrères du Progrès qui relatent l’effarement d’un professeur. Cet enseignant en handicapologie à Lyon avait en effet donné un devoir écrit à réaliser à la maison à ses étudiants en Master.
La plupart des professeurs sont concernés
En lisant leurs copies, il s’est vite rendu compte que quelque chose clochait. Si elles n’étaient pas strictement similaires, toutes reprenaient la même structure démonstrative, et employaient des exemples très proches. Il se renseigne alors auprès d’une élève qui lui révèle la triste vérité : 50 % des étudiants ont utilisé ChatGPT pour rédiger leurs devoirs.
Le professeur n’en reste pas moins surpris par la qualité des travaux rendus, surtout pour un niveau bac+4. Alors que ChatGPT n’est pas formellement interdit, et que les copies valaient entre 10 et 12,5, il a décidé d’attribuer la note de 11,75 à tous les élèves qui ont utilisé l’intelligence artificielle. Ces travaux sont aujourd’hui dans les mains de la direction de l’université qui mène une instruction.
D’après l’enseignant, son histoire est tout sauf un cas isolé, et en discutant avec ses collègues, il a compris que les trois quarts d’entre eux étaient confrontés au même phénomène. Cette problématique toucherait également massivement les lycées, ce qui pose à terme la question de la pertinence des devoirs maison.
La France n’est pas la seule à être concernée. Nous avons ainsi récemment appris que les écoles de New York ont décidé de bannir l’utilisation de ChatGPT sur les réseaux et les appareils scolaires. Selon elles, l’IA n’est pas assez fiable et elle pose d’évidents problèmes de tricheries car les élèves peuvent s’attribuer un texte sans même le comprendre.
OpenAI tente de rassurer
De son côté, OpenAI a bien compris le danger. La société souhaite notamment rajouter « un signal secret et imperceptible » à ses textes afin de montrer qu’il a été rédigé par une IA et non par un humain.
Scott Aaronson, le dirigeant de l’entreprise, explique à ce sujet : « Empiriquement, quelques centaines de jetons semblent suffire pour obtenir un signal raisonnable indiquant que oui, ce texte provient d’un système d’IA. En principe, vous pourriez même prendre un long texte et isoler les parties qui proviennent probablement de ce système et celles qui n’en proviennent probablement pas ».
Mais ce procédé ne convainc pas tout le monde, et certains experts pensent que ce dispositif serait facilement contournable en modifiant quelques éléments du texte.
📍 Pour ne manquer aucune actualité de Presse-citron, suivez-nous sur Google Actualités et WhatsApp.