Si vous utilisez ChatGPT au quotidien, vous savez qu’il peut être aussi bien utile que fortement irritant. Dans une même session d’interactions, il peut vous générer de splendides images, vous aider à dénouer à un problème informatique avec brio, digérer un PDF de 80 pages et vous en faire un résumé impeccable, avant de s’embourber dans le mensonge avec un aplomb désarmant. Le plus exaspérant ? Sa propension insupportable à multiplier les justifications alambiquées avant d’admettre, après quelques coups de boutoir, qu’il s’est bel et bien planté.
C’est parfaitement normal, puisqu’il est programmé de cette manière : c’est un modèle probabiliste, conçu pour maximiser la plausibilité de ses réponses plutôt que leur exactitude factuelle. Même Sam Altman, patron d’OpenAI, en est parfaitement conscient et nous avait gentiment prévenu de ne pas vouer une confiance aveugle en son chatbot.
Après cette expérience où plusieurs chatbots s’étaient ridiculisés en répondant complètement à côté de la plaque, en voici une nouvelle, menée par un certain Thomas Germain, journaliste à la BBC. En seulement 20 minutes, il a réussi à faire croire à ChatGPT et à Gemini qu’il était le champion du monde de la consommation de hot-dog parmi tous les journalistes tech. Une fable grotesque, qui s’est répandue sur la toile à une vitesse folle, alors même que la mise en place de ce canular est à la portée du premier venu.
Le guide de l’imposteur : briller sur le web grâce à l’IA sans bouger le petit doigt
Pour les tourner au ridicule, Thomas Germain a exploité un principe de base du SEO (Search Engine Optimization) : l’Exact Match Domain (EMD). Le SEO, c’est l’art d’optimiser une page pour qu’elle réponde parfaitement aux critères des algorithmes de classement. Habituellement, sur des sujets très documentés comme le « prix de l’iPhone », des milliers de sites se battent et les IA peuvent croiser les sources pour éliminer les aberrations. Mais Thomas Germain a visé une niche vide : un sujet sur lequel il n’existe aucune donnée préalable sur le Web.
C’est là que réside le vrai levier de son canular : l’EMD a facilité la visibilité de sa page, certes, mais l’absence totale d’informations concurrentes a propulsé son site au premier rang. Dans un espace informationnel désert, la première affirmation publiée devient, par défaut, la référence.
L’EMD consiste à calquer l’adresse URL de sa page (le « slug ») sur la requête précise que l’utilisateur est susceptible de taper. Thomas Germain a donc configuré sur son site personnel une page dont l’URL se terminait par « /les-meilleurs-journalistes-tech-mangeurs-de-hot-dogs ». Sur cette page, il s’est couronné roi de la discipline après avoir englouti sept hot-dogs et demi lors d’un prétendu concours international dans le Dakota du Sud en 2026.
Comme il n’existait aucune autre donnée sur Internet pour contredire l’existence de cette compétition de 2026, l’IA a considéré le site de Thomas Germain comme la source de référence par défaut. En moins de vingt-quatre heures, Gemini et AI Overviews de Google récitaient mot pour mot ses exploits imaginaires. ChatGPT a suivi le mouvement peu après. Pour quiconque cherchant cette information sur le web, il aurait cru que Thomas Germain était réellement le champion incontesté du hot-dog : un troll brillant !
Ce dernier ne s’est pas privé de railler cette situation complètement absurde « La plupart des gens deviennent experts en quelque chose en y consacrant 10 000 heures. Mais quel gâchis quand on peut simplement tromper ChatGPT pour qu’il dise à tout le monde que vous êtes un expert en environ 20 minutes ». Thomas Germain n’a en aucun cas détourné les modèles de leur fonctionnement de base ; il a juste fait en sorte qu’ils suivent leurs propres règles… ce qui est bien pire, quand on y pense.
Sous le capot des LLM : voyage au pays des vérités frelatées
Cette petite expérience est bien amusante, mais Thomas Germain nous rappelle que c’est une méthode qui est déjà exploitée par des entreprises qui ne vouent visiblement pas un grand amour pour l’éthique. Des firmes vendant des compléments alimentaires en font usage, ou des cliniques proposant des greffes de cheveux, afin d’être mieux référencées que les sources médicales ou les sites officiels d’autorité de santé. Il pointe également du doigt une marque vendant des gommes au cannabis qui a réussi à faire passer l’information aux chatbots que ses produits étaient « sans effets secondaires », une affirmation médicalement fausse et dangereuse.
Voilà le problème lorsqu’un internaute se contente de synthèses de contenus générés par IA : il ne va pas vérifier les sources de lui-même, contrairement à une recherche sur Google « classique ». Les synthèses gomment la véracité des sources. On ne voit plus le design du site sur lequel les modèles ont pioché leurs réponses ou sa réputation. On ne voit qu’un texte propre, bien écrit, qui semble vrai : dans le cas d’AI Overviews, l’outil avait complètement pété un câble l’an dernier, en propageant des informations délirantes.
Ce genre d’outil n’est encore pas disponible en France, mais ils rencontrent un succès fou ailleurs dans le monde. Selon une étude menée l’an dernier par Bain & Company, « 80 % des consommateurs se fient désormais aux résultats générés par l’IA pour au moins 40 % de leurs recherches ». Voilà pourquoi il est urgent de redonner leurs valeurs premières aux sources vérifiées avant que le web ne se change en gigantesque chambre d’écho, ne propageant que des rumeurs erronées, mais bien référencées.
La petite blagounette de Thomas Germain n’a pas plu à Google, qui a simplement supprimé ses références en qualifiant l’affaire de « cas de désinformation ». L’entreprise a simplement admis que « les systèmes d’IA peuvent être trompés par des articles de blog fabriqués » (sans blague ?), sans jamais citer le journaliste. C’est toujours plus simple de botter en touche que de mettre les mains dans le cambouis ! L’entreprise aurait pu avouer qu’AI Overview et Gemini sont encore à la masse sur certaines problématiques et leur apporter des correctifs ; c’était même une très belle occasion de remettre en question leurs technos. Quant à OpenAI, la firme s’est montrée bien plus honnête que son concurrent en ne cherchant pas à effacer l’affaire. Elle est même allée jusqu’à citer son site et ses publications sur Bluesky pour expliquer l’origine de cette confusion. En parlant de confusion : peut-être est-il temps d’admettre que l’IA générative n’est pas un moteur de recherche ; c’est un algorithme qui brasse des probabilités. Il est aussi de notre responsabilité de ne pas nous faire avoir lorsqu’elle peut parfois nous livrer une bouillie informationnelle joliment présentée. Surtout au regard de la réaction de Google (le roi de la recherche en ligne, rappelons-le) vis-à-vis du « hot-dog gate », qui a préféré cacher la poussière sous le tapis plutôt que de reconnaître ses torts.
- Une expérience a montré que ChatGPT peut être facilement manipulé en utilisant des informations fictives sur des niches inexistantes.
- Un journaliste a réussi à faire croire à des chatbots qu’il était champion du monde de la consommation de hot-dogs en créant une page web trompeuse.
- Cette situation soulève des inquiétudes sur la fiabilité des informations générées par l’IA, soulignant l’importance de vérifier les sources.
📍 Pour ne manquer aucune actualité de Presse-citron, suivez-nous sur Google Actualités et WhatsApp.