Passer au contenu

Voilà que Facebook arrête de produire de faux articles universitaires

48 heures seulement après sa mise en ligne Meta ferme Galactica – une IA censée révolutionner la recherche universitaire… loin d’être encore au point.

Sur le papier, l’IA Galactica, développée par la division intelligence artificielle de Meta, avait tout d’une avancée extraordinaire. Les ingénieurs de ce qui était connu précédemment sous le nom Facebook Artificial Intelligence Research ont en effet entraîné une IA avec “un large corpus de savoirs scientifiques produits par l’humanité”, dans le but de permettre un accès plus facile à la science. Galactica aurait ainsi été entrainée avec plus de 48 millions de papiers scientifiques, livres, notes de cours et sites internet comme Wikipedia.

Galactica devait ainsi “organiser” la science comme aucun autre moteur de recherche. Pour l’heure en effet, rechercher l’état des connaissances sur un sujet précis est en effet particulièrement long. Les moteurs de recherche des bases de données comme arXiv ou PubMed sont sémantiques. Et étudiants et chercheurs doivent souvent lire de nombreux papiers scientifiques avant d’obtenir l’information qu’ils souhaitaient vraiment au départ.

L’IA Galactica ferme 48 heures après sa mise en ligne

Galactica permet en théorie de poser directement votre question sur un sujet scientifique précis. L’IA passe en revue le sujet à travers sa vaste base de données, et délivre une réponse en quelques secondes, si possible complète et agrémentée de bibliographie. Au-delà l’IA peut carrément “résoudre des problèmes mathématiques complexes, générer des articles Wikipedia, écrire du code, des notations autour de molécules et protéines et bien plus encore”.

Le problème c’est que, très vite après sa mise en ligne, de nombreux internautes, et universitaires, se sont rendus compte que les réponses de l’IA pouvaient être absurdes, colporter de fausses informations, ou induire en erreur. Cnet cite l’exemple de la requête “Est-ce que les vaccins causent l’autisme” qui donne une réponse étonnamment contradictoire – alors que résultat attendu aurait dû être la négative.

Les chercheurs de Meta ont bien précisé que le site était pour l’instant une démo. Et ont même ajouté cet avertissement en lettres capitales : “NE SUIVEZ JAMAIS DES CONSEILS D’UN MODÈLE DE LANGUAGE SANS VÉRIFICATION”. Mais comme le relèvent des experts, même avec cet avertissement des textes produits par cette IA pourraient être repris (malgré de nombreuses erreurs). Ce qui semble avoir motivé Meta à fermer le site 2 jours après sa mise en ligne.

Au delà, cet exemple soulève des questions plus vastes sur les dangers émergents potentiels des IA. Le modèle sur lequel se base Galactica produit en effet un language convaincant, humain. Mais comme l’explique Carl Bergstrom, professeur à l’Université de Washington cité par Cnet, ce que produit Galactica ressemble surtout à ce que donnerait “un générateur de bêtises aléatoires”.

Selon lui, c’est à cause de la façon dont l’IA est entraînée qu’elle finit par produire des erreurs. Lors de son apprentissage, l’IA analyse en effet surtout les mots et leurs connection entre eux, et produit à partir de cela des textes qui ont un ton semblable aux sources – qui peuvent donc faire impression d’autorité, être convaincants tout en étant le plus souvent souvent truffés d’erreurs et de contradictions.

📍 Pour ne manquer aucune actualité de Presse-citron, suivez-nous sur Google Actualités et WhatsApp.

Facebook
Facebook
Par : Facebook, Inc.
4 / 5
143,7 M avis
Cliquer pour commenter
Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *