Passer au contenu

ChatGPT va proposer l’arme ultime contre le plagiat de l’IA

Il sera bientôt plus facile de repérer si un texte a été rédigé par un humain ou par l’IA de ChatGPT.

Depuis quelques semaines, le phénomène ChatGPT a déferlé sur monde de la Tech. Cette intelligence artificielle développée par OpenAI est capable de générer du contenu écrit de manière autonome, et ce sur n’importe quel sujet. Il suffit de le tester pour voir les énormes opportunités qu’il ouvre, mais aussi les risques. Il peut par exemple permettre à des élèves de tricher lors de leurs devoirs maison, ou à des acteurs malveillants de rédiger des messages de phishing, ou de la désinformation.

Une clé pour reconnaître l’écriture de l’IA

OpenAI entend rapidement réagir et veut rajouter « un signal secret et imperceptible » à ses textes qui montre qu’ils ont été rédigés par une machine et non par des humains. Scott Aaronson, actuellement chercheur invité par la société, est revenu cette semaine lors d’une conférence à l’université du Texas à Austin sur ce procédé.

Concrètement, cet indice (ou filigrane) ne sera pas perceptible par le grand public, mais toute personne possédant la clé cryptographique sera en mesure de le repérer. Cité par Techcrunch, il précise : « Empiriquement, quelques centaines de jetons semblent suffire pour obtenir un signal raisonnable indiquant que oui, ce texte provient d’un système d’IA. En principe, vous pourriez même prendre un long texte et isoler les parties qui proviennent probablement de ce système et celles qui n’en proviennent probablement pas ».

Pour l’heure, il n’a pas souhaité en dire davantage. Mais ce concept n’est pas forcément nouveau dans le domaine de l’IA, et il ne fait pas l’unanimité. Certains experts interrogés par nos confrères ne cachent d’ailleurs pas leur scepticisme.

Selon Srini Devadas, professeur d’informatique au MIT, il serait « assez facile de le contourner en reformulant le texte, en utilisant des synonymes ». On assisterait donc à une lutte acharnée entre les fraudeurs et les systèmes de vérification.

Certains spécialistes font aussi remarquer que si OpenAI choisir d’utiliser ce système anti-fraude, d’autres sociétés pourraient décider de ne pas l’utiliser. Et en l’absence de réglementation globale, le plagiat de l’intelligence artificielle resterait un jeu d’enfant.

Les profs s’adaptent à ChatGPT

Depuis la démocratisation de ces systèmes de génération de texte, les professeurs observent que de nombreux élèves les utilisent pour rédiger leurs devoirs à la maison. Certains ont même repéré des failles dans ChatGPT qui connaît très bien certaines œuvres mais a de vraies lacunes sur d’autres.

De même, ils commencent à reconnaître le style de l’IA. Cette dernière écrit assez proprement mais dans un style assez plat et sans fioritures. En clair, elle se comporte comme un bon élève qui respecte à la ligne les consignes qu’on lui a donné, et ce parfois jusqu’au ridicule.

📍 Pour ne manquer aucune actualité de Presse-citron, suivez-nous sur Google Actualités et WhatsApp.

Newsletter 🍋

Abonnez-vous, et recevez chaque matin un résumé de l’actu tech

2 commentaires
2 commentaires
  1. Je ne pense pas que ça serve à quoi que ce soit… On le voit déjà avec les mémoires de fin d’études.
    Pour s’assurer que l’étudiant n’a pas triché lors de la rédaction, les profs utilisent un script de vérification de plagiat. Selon le score, il peut estimer si l’étudiant a, ou non, plagié un travail existant.

    Eh bien devinez quoi : les étudiants utilisent le même outil pour vérifier si l’outil voit ou non qu’ils ont triché ; et si l’outil le voit, les étudiants modifient un peu leur texte et recommencent jusqu’à obtenir un score acceptable…

  2. J’ai déjà testé mon propre model sur les sites qui reconnaissent un texte créé par gpt.
    Après un passage dans mon IA, le texte est reconnu comme humain et n’est que très peu modifié et sans faute…. C’est un combat perdu d’avance mais OpenAI se protège juridiquement.
    Je me réjouis de casser leurs tatouage 😂

Les commentaires sont fermés.