- Si des détecteurs de textes générés par l’IA existent, OpenAI affirme que ceux-ci (même le détecteur qu’il a créé) ne sont pas fiables
- Ceux-ci peuvent aussi envoyer de nombreux faux positifs, ce qui peut pénaliser des personnes à tort
- Pour les enseignants, OpenAI recommande de nouvelles approches qui tiennent compte de cette évolution technologique
L’arrivée de ChatGPT a pris le monde de l’éducation de court. Que ce soit dans les lycées ou dans les universités, les étudiants se sont rapidement rendu compte qu’il est possible d’utiliser cette intelligence artificielle pour faire leurs devoirs. Pour pallier ce problème, des services se sont proposés pour détecter les contenus générés par l’IA et non par un humain. D’ailleurs, même OpenAI a créé un détecteur de ChatGPT. Mais aujourd’hui, celui-ci affirme qu’il n’existe pas de moyen fiable de déterminer si un contenu a été généré avec une intelligence artificielle.
Lorsqu’il a lancé son outil de détection, en janvier, OpenAI avait déjà prévenu que celui-ci n’est pas fiable à 100 %. “Dans nos évaluations sur un « ensemble de défis » de textes anglais, notre classificateur identifie correctement 26 % des textes écrits par l’IA (vrais positifs) comme étant « probablement écrits par l’IA », tout en étiquetant à tort les textes écrits par l’homme comme étant écrit par l’IA dans 9 % des cas (faux positifs)”, avait indiqué le créateur de ChatGPT.
Les détecteurs, ça ne marche pas
Et récemment, dans une FAQ destinée au secteur de l’éducation, OpenAI a clairement indiqué qu’il n’existe, aujourd’hui, pas de solution efficace. “Les détecteurs IA fonctionnent-ils ? En bref, non”, lit-on dans ce document publié fin août. Selon OpenAI, les détecteurs existants (dont le sien) n’ont pas prouvé leur fiabilité pour détecter les textes générés par IA. L’entreprise explique également que même ChatGPT ne sait pas détecter les textes qu’il a lui-même écrits.
Et même si les détecteurs peuvent parfois fonctionner, il est facile pour un étudiant d’apporter des modifications sur le contenu généré par l’IA pour tromper les ces détecteurs. OpenAI évoque également le problème des faux positifs et cite l’exemple de textes comme des écrits de Shakespeare ou la Déclaration d’indépendance des États-Unis, qui ont été étiquetés à tort.
Vers une nouvelle façon d’enseigner ?
S’il est compliqué, ou même impossible, de détecter les devoirs qui ont été rédigés par une IA, OpenAI pense qu’il est possible de revoir les façons d’enseigner en tenant compte des récentes évolutions technologiques. C’est la raison pour laquelle l’entreprise a récemment sorti une sorte de guide pour les enseignants, qui inclut des exemples d’utilisation de ChatGPT par des enseignants, ainsi que des exemples de prompts pour utiliser cette IA pour créer du contenu éducatif.
Par exemple, au lieu de rendre un devoir, un étudiant peut rendre son devoir, ainsi que son historique des prompts envoyés à ChatGPT. “Les enseignants peuvent analyser les interactions des étudiants avec ChatGPT pour observer la pensée critique et les approches de résolution de problèmes”, explique OpenAI.
“Nous prévoyons un avenir où l’utilisation d’outils d’IA comme ChatGPT sera monnaie courante. Encourager une utilisation responsable aide les étudiants à se préparer à un avenir dans lequel ils pourront exploiter l’IA dans différents contextes”, peut-on également lire dans la FAQ.
📍 Pour ne manquer aucune actualité de Presse-citron, suivez-nous sur Google Actualités et WhatsApp.
En l’état actuel non seulement un texte écrit sans IA peut être analysé comme ayant été conçu avec (le concours) de l’IA, et inversement, mais, pire, un étudiant ayant rendu un travail conçu honnêtement peut se voit attribuer une note inférieure à celui d’un autre ayant laissé l’IA pondre le boulot. Comme pour le sport et le dopage. Comme pour le monde de l’entreprise quand l’alternative n’est plus qu’adopter les stratégies malhonnêtes des concurrents ou crever la bouche ouverte : “if you can’t beat them, join them”. Ainsi, inexorablement, notre monde tend vers de la triche partout. Partout.