- OpenAI vient de fermer son détecteur de textes générés par l’IA
- L’éditeur de ChatGPT explique sur son blog que son outil ne parvient pas à des résultats suffisamment fiables
- OpenAI cherche donc de nouvelles méthodes pour détecter l’IA – en attendant une solution miracle, il sera du coup quasi impossible de faire la distinction
OpenAI est très conscient des risques liés à l’IA, en particulier si les contenus produits par l’IA et ceux produits par des humains sont impossibles à distinguer. C’est pourquoi, après le lancement de ChatGPT, OpenAI a mis en ligne un outil censé détecter tous les textes ayant été générés par l’IA.
Il suffit de coller un extrait dans une zone de saisie et l’outil annonce alors quel pourcentage de l’extrait a été écrit par une intelligence artificielle. La firme a très vite, au demeurant, souligné qu’il ne fallait pas prendre les résultats de ce test pour argent comptant : de faux positifs restent possibles, de même que des faux négatifs.
Même OpenAI ne sait pas comment détecter un texte écrit par ChatGPT
Toutefois, via une mise à jour de son post de blog, OpenAI annonce maintenant que la fiabilité des détections était trop faible, et que du coup l’outil vient d’être mis hors ligne : “au 20 juillet 2023, notre détecteur d’IA n’est plus disponible en raison de son faible taux de fiabilité. Nous travaillons à intégrer les retours et recherchons actuellement des techniques de détection de provenance plus efficaces pour le texte. Nous poursuivons notre engagement à développer et déployer des mécanismes permettant aux utilisateurs de comprendre si le contenu audio ou visuel est généré par l’IA”, explique OpenAI.
On trouve d’autres outils de détection d’IA sur le net, conçus avec des approches différentes, comme Copyleaks, GPTZero ou l’outil édité par Writer. Or, selon nos tests, il est fréquent que ces outils labellisent des textes écrits entièrement par un humain comme générés par une IA, surtout lorsque le résultat est modifié, même très légèrement. Et à l’inverse des textes générés par l’IA sont détectés comme s’ils avaient été écrits par un humain. Ce qui montre à quel point il devient difficile de détecter des textes générés par l’IA, notamment via le modèle GPT-4.
Et à quel point cette ambiguïté menace de s’intensifier à mesure que les modèles deviennent plus réalistes. Pour l’heure, les universités et tous les acteurs qui cherchent des moyens d’interdire le recours à l’IA sont donc d’autant plus sans solution – que OpenAI admet lui-même ne pas savoir pour l’instant comment faire mieux en la matière. En affirmant “nous poursuivons notre engagement à développer et déployer des mécanismes permettant aux utilisateurs de comprendre si le contenu audio ou visuel est généré par l’IA”, la firme souligne qu’elle continuera de chercher de nouvelles approches de détection.
Mais la décision de mettre hors ligne son outil le plus avancé, même imparfait et relativement peu fiable, semble d’emblée un mauvais signal – puisque cela confirme que de OpenAI, aux sites tiers, à peu près toutes les approches de détection existantes sont inefficaces. Avec le risque d’encourager des acteurs malveillants à se reposer sur l’IA pour générer des campagnes de désinformation.
📍 Pour ne manquer aucune actualité de Presse-citron, suivez-nous sur Google Actualités et WhatsApp.
Moui ou c’est une manière indirecte de faire de la publicité pour son produit malgré ses imperfections :
” vous avez vu ? notre produit est tellement avancé que l’on ne fait pas la différence avec un humain !”
Et si le problème n’était pas plutôt la baisse du niveau général qui fait qu’un texte IA passe inaperçu ?
Les techno-tarés appellent cela la cinglérité… heu, la singularité.
Haaa misérable prophétie autoréalisatrice, il fallait peu de chose, comme démolir l’éduc’.
JJ.Rousseau aurait écrit: “La jeunesse est le temps d’étudier la sagesse, la vieillesse est le temps de la pratiquer”. On est tous foutus. 🙂