Passer au contenu

ChatGPT peut devenir une arme de désinformation massive

Un rapport publié par des chercheurs de prestigieuses universités américaines et d’OpenAI tire la sonnette d’alarme concernant les technologies de type ChatGPT.

    • Un rapport point les risques de ChatGPT en matière de désinformation
    • Des mesures sont préconisées pour les contrer
    • Il n’existe aucune solution miracle à ce stade

La désinformation et les fake news mettent déjà à mal les démocraties mais ce n’est peut-être que le début. Des chercheurs des prestigieuses universités de Stanford et Georgetown et de la société OpenAI viennent de publier un rapport qui alerte sur le danger des technologies de modèles de langage de type ChatGPT si elles ne sont pas correctement encadrées.

Les auteurs expliquent en effet que ces IA pourraient permettre des opérations de propagande numérique à très grande échelle à destination de l’opinion publique. Concrètement, les acteurs qui veulent mener des actions d’influence utiliseront ces systèmes pour automatiser leurs publications sur les réseaux sociaux, ou leur faire rédiger des articles à destination de leurs sites de fausses nouvelles.

ChatGPT va simplifier la vie des manipulateurs

On peut aussi imaginer un recours à ces outils pour créer du contenu personnalisé et original qui s’adapterait à chaque internaute, de quoi démultiplier l’effet de ces manipulations, tout en dissimulant ces pratiques.

Cité par VentureBeat, Josh A. Goldstein, co-auteur de ce rapport, précise : « Nous pensons que pour les propagandistes, les outils de génération de langage seront probablement utiles : ils peuvent faire baisser les coûts de génération de contenu et réduire le nombre d’humains nécessaires pour créer le même volume de contenu ».

Sans plus attendre, les experts recommandent donc des mesures pour contrer les risques de modèles comme ChatGPT. D’autant que ces IA seront encore amenés à progresser à l’avenir, ce qui pourrait encore améliorer leur efficacité.

Concrètement, ils prônent la restriction de l’accès à ces modèles pour que les propagandistes ne puissent pas disposer de leur propre IA. L’adoption de nouvelles normes visant à rendre plus détectable les contenus produits par ces systèmes est également importante.

Tout cela ne sera pas possible sans la mise en place d’une approche globale qui inclut les géants de la Tech, les gouvernements et la société civile. Malheureusement, et comme c’est le cas actuellement, ces efforts coordonnés sont assez défaillants en matière de lutte contre la désinformation.

« Nous n’avons pas de solutions miracles »

Les effets de technologies de type ChatGPT sont encore difficilement mesurables. Il semble que nous soyons à un tournant, et dans ces moments de rupture, personne ne sait vraiment ce qui pourra arriver. Josh A. Goldstein le reconnaît volontiers : « Nous avons besoin de plus de recherches, d’analyses et de tests pour mieux déterminer quelles mesures d’atténuation sont souhaitables et pour mettre en évidence les mesures d’atténuation que nous avons négligées. Nous n’avons pas de solutions miracles ».

📍 Pour ne manquer aucune actualité de Presse-citron, suivez-nous sur Google Actualités et WhatsApp.

Newsletter 🍋

Abonnez-vous, et recevez chaque matin un résumé de l’actu tech

1 commentaire
1 commentaire
  1. J’aime bien l’utiliser mais je fais beracoup de fautes de frappes avec mon clavier actuel,
    Je ne sais pas lequel prendre pour de la saisie de texte

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *