Passer au contenu

GPT-2 : OpenAI ne veut pas diffuser son outil, le jugeant trop dangereux

Contrairement à ses habitudes OpenAI, préfère que sa dernière création ne tombe pas entre de mauvaises mains… et refuse de publier le code open source de l’intelligence artificielle derrière le générateur de texte GPT-2.

L’initiative OpenAI avait vu le jour pour que les recherches autour du secteur des intelligences artificielles soient supervisées ou centralisées autour d’une entité, afin que d’autres entreprises ou chercheurs profitent des avancées, mais surtout avec une éthique. Il est vrai que ce domaine évolue très rapidement, sans réels contrôles, avec une législation souvent totalement dépassée et avec des entreprises souhaitant proposer le plus vite possible leur AI sur le marché pour devenir leader, au détriment parfois des questions de sécurité. Sur le fond, la création d’OpenAI avait un peu pour but de nous épargner une troisième guerre mondiale contre les machines…

OpenAI met au point un générateur de textes GPT-2

OpenAI a annoncé avoir mis au point un générateur de textes intelligent GPT-2, tellement intelligent, qu’il est à ses yeux une menace. Ce type de générateurs de textes sont capables de réaliser des articles sur un sujet, en s’inspirant des informations qui sont à leur disposition. Il est capable de construire un plan détaillé, de fournir des exemples, des citations et de proposer une argumentation soutenue pour arriver à une conclusion. Cela signifie que l’outil peut lire d’autres articles pour s’inspirer ou en traduire si nécessaire.

OpenAI explique : «  Nous avons entraîné un modèle de langage qui peut générer des paragraphes cohérents et peut, de manière rudimentaire, réussir à comprendre les écrits, traduire, répondre aux questions et résumer efficacement — tout ça sans entraînement spécifique ». Pour ce faire, 8 millions de pages web, soit 40 Go de texte, ont été nécessaires pour que l’intelligence artificielle puisse faire son apprentissage.

Une vraie innovation, qui restera aux oubliettes

En temps normal, les principes d’OpenAI veulent que les découvertes soient open source afin que tout un chacun puisse exploiter les avancées dans le domaine des intelligences artificielles, mais cette fois ce n’est pas le cas… Le nouveau générateur de textes est jugé trop dangereux !

OpenAi explique en effet : « Vu que nous avons des réserves sur de potentielles utilisations malveillantes de notre technologie, nous ne diffuserons pas ce modèle. Nous allons à l’inverse, dans une démarche expérimentale de diffusion responsable, publier un modèle bien plus petit, pour que des chercheurs puissent expérimenter, ainsi qu’une publication technique ». La question que beaucoup se poseront c’est : comment un générateur de textes peut-il être dangereux, aussi élaboré soit-il ?

La réponse est simple. Des personnes malveillantes pourraient détourner son usage afin de générer de faux articles de presse massivement et automatiquement, se faire passer pour une autre personne en ligne et sur les messageries ou encore automatiser la diffusion fake news sur les réseaux sociaux. Sachant qu’aujourd’hui les fake news sont un problème majeure d’internet, pouvant avoir un impact sur la démocratie elle même, on comprend un peu mieux pourquoi OpenAI ne veut pas avoir l’inconscience de mettre son nouvel outil entre toutes les mains.

Notons que OpenAI a été cofondée par Elon Musk, dont on connaît la méfiance à l’encontre des intelligences artificielles. Depuis peu, Google semble aussi avoir pris conscience des risques et ne partage plus les codes sources entourant ses AI…

📍 Pour ne manquer aucune actualité de Presse-citron, suivez-nous sur Google Actualités et WhatsApp.

Newsletter 🍋

Abonnez-vous, et recevez chaque matin un résumé de l’actu tech

Cliquer pour commenter
Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *