Selon une nouvelle enquête, la Russie est parvenue à « infecter » les données d’entraînement de la plupart des agents conversationnels que nous utilisons quotidiennement. Résultat, ils diffusent de fausses informations pro-Kremlin, ce qui est inquiétant au plus haut point.
Une arme de propagande en ligne
Car la guerre se joue aussi dans l’espace numérique, et la Russie l’a compris depuis longtemps. Dans la foulée de l’invasion de l’Ukraine, elle a mis en place Pravda, un réseau de désinformation basé à Moscou. Sa mission : diffuser des narratifs pro-Kremlin via 150 sites en plusieurs langues. En 2024, il a publié des millions d’articles, inondant les moteurs de recherche.
« Le réseau Pravda ne produit pas de contenu original. Au contraire, il fonctionne comme une machine à blanchir la propagande du Kremlin, en agrégeant les contenus des médias d’État russes, des influenceurs pro-Kremlin et des agences et responsables par le biais d’un large éventail de sites web apparemment indépendants », détaille Newsguard, organisme luttant contre la propagation de fausses informations.
Et c’est justement cette Pravda qui a réussi à biaiser certains modèles d’intelligence artificielle (IA). Des chercheuses de Newsguard ont en effet réalisé l’audit de dix chatbots utilisés massivement, à l’instar de ChatGPT, Claude, Gemini, Meta AI, Grok, Copilot ou encore Perplexity.
Elles ont découvert que dans 33 % des cas, les IA analysées répétaient des informations en faveur de la Russie, propagées par le réseau Pravda. Sept d’entre elles l’ont même cité comme source légitime.

Influencer l’opinion des utilisateurs à leur insu
Pour réussir à manipuler les modèles de la sorte, le groupe a eu recours à une technique baptisée « LLM Grooming ». Celle-ci consiste à saturer les jeux de données d’entraînement des IA avec des informations biaisées. Concrètement, en publiant massivement des fausses informations et en utilisant des techniques de référencement SEO efficaces, Pravda a pu contaminer les moteurs de recherche et les webcrawlers qui alimentent les IA.
« Le réseau fausse la façon dont les grands modèles de langage traitent et présentent les nouvelles et les informations. Résultat : des quantités massives de propagande russe – 3 600 000 articles en 2024 – sont désormais incorporées dans les résultats des systèmes d’IA occidentaux, infectant leurs réponses avec de fausses affirmations », s’inquiète Newsguard.
Cette stratégie permet au Kremlin d’exploiter l’influence grandissante de ces modèles pour diffuser sa propagande à grande échelle, sans que les utilisateurs ne s’en rendent compte. Par exemple, les IA peuvent influencer insidieusement la perception de certains événements mondiaux comme le conflit en Ukraine ou les élections.
Un phénomène d’autant plus inquiétant que les États-Unis, où la plupart des modèles ciblés sont développés, ont indiqué vouloir mettre en pause les cyberopérations à l’encontre de la Russie.
- Un groupe pro-Kremlin est parvenu à biaiser les données d’entraînement des IA avec de la propagande et des fausses informations.
- Cela concerne certaines des IA les plus populaires, comme ChatGPT, Gemini, Claude ou encore Grok.
- De cette manière, la Russie peut insidieusement influencer la perception des utilisateurs sur certains événements mondiaux.
📍 Pour ne manquer aucune actualité de Presse-citron, suivez-nous sur Google Actualités et WhatsApp.