Si une intelligence artificielle est capable de générer un texte convainquant sur un sujet donné, pourquoi ne rédigerait-elle pas des dissertations ? C’est justement ce que s’est dit une étudiant qui a témoigné sous son pseudonyme Reddit innovate_rye. Ce dernier a en effet décidé de faire faire ses devoirs par l’IA GPT-3 développée par OpenAI.
Bientôt la fin des devoirs à la maison ?
Il a notamment expliqué que son université lui demandait de citer cinq bonnes et mauvaises utilisations de la biotechnologie. Il pose alors la question au générateur de texte. Le résultat est clairement là, et le jeune homme qui consacrait deux heures à préparer ses devoirs ne met aujourd’hui que 20 minutes, et il obtient d’excellentes notes.
Alors que les établissements recourent à des algorithmes anti-plagiats pour lutter contre la triche, la production de l’IA passe totalement inaperçue. Nos confrères de Vice ont justement interrogé George Veletsianos, titulaire de la Chaire de recherche du Canada sur l’apprentissage et les technologies innovantes et professeur associé à l’Université Royal Roads, pour mieux comprendre.
Selon lui, c’est parfaitement logique, car le texte généré par l’IA est en fait original et ne correspond à aucune production antérieure. Dès lors, il ne pense que que ce type de création pourront être détectables en recourant à ce type d’outils.
Il n’empêche, l’utilisation de ce type d’intelligence artificielle pour des devoirs faits à la maison pose forcément des questions éthiques, et pour l’heure OpenAI n’a pas réagi à l’article de nos confrères. Quant aux étudiants, ils attendent avec impatience la sortie de GPT-4, une IA qui sera encore plus perfectionnée et devrait produire de meilleurs textes.
Des expériences peu concluantes dans le journalisme
Rappelons que c’est loin d’être la première fois que nous vous parlons de ce type de système. Ainsi, le média spécialisé dans les jeux vidéo, Kotaku, s’est notamment amusé à faire rédiger une critique à un générateur de type GPT-2.
Le résultat n’était alors pas très concluant et nos confrères notaient : « L’IA ne peut pas évaluer un jeu vidéo. Les éléments pour lesquels on a demandé à l’apprentissage automatique de faire appel à l’expérience et à l’émotion se sont avérés meilleurs que prévu, mais à chaque occasion, on a pu constater que le modèle avait adopté l’approche “fake it till you make it”. Il introduisait des détails erronés, parfois même des noms et des développeurs de projets totalement différents. »
De son côté, le quotidien britannique The Guardian a tenté de faire rédiger un éditorial à GPT-3. Séduisante sur le papier, l’expérience a été critiquée par certains spécialistes de l’IA.
Daniel Leufer a par exemple qualifié cette tentative de « blague absolue ». « Il aurait été en fait intéressant de voir les huit essais que le système a réellement produits, mais les éditer de cette manière ne fait que contribuer au battage médiatique et à désinformer les gens qui ne liront pas les détails », ajoutait-il.
📍 Pour ne manquer aucune actualité de Presse-citron, suivez-nous sur Google Actualités et WhatsApp.
L’humanité tombe de plus en plus bas !!!! Déjà que les jeunes générations ne veulent plus en peler et ont par exemple un niveau d’orthographe proche de l’orang outan, c’est pas prêt de s’arranger avec ces foutus IA qui feront le boulot à leur place. Par contre une chose est sûre, plus les IA remplaceront l’homme, plus l’homme deviendra inutile… Avec ces IA, nous allons droit à la déchéance humaine…. La preuve avec ces gamins qui les utilisent pour tricher, car trop lâches, trop flemmards pour faire le boulot…. C’est ça les générations de demain ??
Société en perdition constante. C’est consternant !!!!