C’était il y a presque deux ans : Google lançait sa fonctionnalité AI Overviews, des encadrés générés par l’intelligence artificielle censés résumer les résultats d’une recherche web. Sous le capot, c’est Gemini (et plusieurs de ses cousins) qui mouline en synthétisant plusieurs sources, pour en livrer un condensé sur un plateau.
Les AI Overviews sont aujourd’hui disponibles dans plus de 200 pays et 40 langues, mais en France nous n’y avons pas encore le droit. Nous avons eu vent, en revanche, de quelques-uns de leurs déboires : la fameuse histoire de la pizza à la colle ou autres résumés parfaitement stupides. Des anecdotes croustillantes, certes, mais qui cachent un problème autrement plus sérieux. Une étude menée par Oumi, entreprise spécialisée dans l’IA open source, vient de mettre des chiffres sur ce que tout le monde pressentait : le taux d’erreur réel des AI Overviews, ramené aux volumes de recherche de Google, est catastrophique.
Une réponse fausse toutes les dix secondes
Le premier résultat qui se dégage de l’étude paraît plutôt rassurant : 90 % des résumés générés sont corrects et sourcés sérieusement. Un chiffre que Google s’est empressé de mettre en avant, faisant mine d’ignorer que sur Internet, une seule fake news suffit à faire le tour du monde avant que la vérité n’enfile ses bottes.
En revanche, ce que l’entreprise a « oublié » de mettre en avant, c’est ce que représentent les 10 % restants à l’échelle mondiale. Selon les estimations de l’étude, Google traitera plus de cinq mille milliards de recherches en 2026. Rapporté à l’heure, cela signifie que les AI Overviews génèrent des dizaines de millions de réponses douteuses, soit plusieurs centaines de milliers d’erreurs par minute.
En plus de ce problème inhérent au volume, les AI Overviews souffrent d’un défaut de conception que Google ne documente nulle part : une même question posée deux fois peut produire deux réponses différentes, l’une juste, l’autre non, sans que l’utilisateur sache laquelle est laquelle. Et comme l’encadré trône en haut de page, avant les liens, avant les sources, il capte l’œil de l’internaute bien plus facilement.
Autre problème : les AI Overviews ne hiérarchisent pas les sources par fiabilité avant de générer leurs réponses, ils raclent l’ensemble des contenus web. Facebook remonte en deuxième position des sources les plus citées et Reddit en quatrième. C’est-à-dire qu’entre un article du Lancet et le témoignage d’un inconnu convaincu que les vaccins contiennent une puce 5G, Gemini et consorts font une synthèse sans trop se poser de questions.
Un boost pour la désinformation ?
Il y a enfin la question des acteurs malveillants, qui pourraient théoriquement profiter des faiblesses de ce système. Puisque les AI Overviews sélectionnent leurs sources en fonction de critères de popularité et d’accessibilité plutôt que de fiabilité, la manipulation est à la portée de quiconque comprend cette mécanique : il suffit de créer un site, y publier de fausses informations, simuler une grosse audience vers ces contenus, et laisser l’algorithme faire le reste.
N’importe qui maîtrisant les règles du référencement et d’un budget pour acheter du trafic peut générer ces petits encadrés que des milliards d’utilisateurs consultent chaque jour comme une source d’autorité. Même s’ils sont faux, cela n’a pas d’importance ; la forme triomphe sur le fond : si un contenu est bien référencé et que l’algorithme mord à l’hameçon, c’est que c’est forcément vrai.
Google a répondu à ces critiques par la voix de son porte-parole Ned Adriance, qui a déclaré au New York Times que « la grande majorité des spams [NDLR : faux contenus] » était bloquée par ses systèmes, et que « la plupart de ces exemples correspondent à des recherches que les gens ne feraient pas vraiment ». En traduisant de manière moins corporate, Ned Adriance nous explique donc que les cas documentés par l’étude ne comptent pas vraiment, parce que Google a décidé qu’ils n’étaient pas représentatifs. L’art du sophisme poussé jusqu’à l’absurde : si l’erreur existe, c’est qu’elle n’est pas statistiquement pertinente ; si elle est grave, c’est qu’elle est improbable.
Alors oui, il y a bien un petit avertissement glissé en-dessous des encadrés AI Overviews, mettant en garde les usagers, qui dit, mot pour mot : « L’IA peut commettre des erreurs, vérifiez les réponses ». Mais soyons sérieux deux minutes : sur la masse des utilisateurs, qui le prend vraiment en considération ? Qui va même le lire ? L’internaute moyen ne lit pas les conditions générales d’un site ou d’une application, ignore royalement les mentions légales et passera à tout casser 15 secondes sur la page de résultats Google s’il veut son information rapidement. L’avertissement existe pour que Google puisse dire qu’il existe et accessoirement pour se couvrir juridiquement le jour où quelqu’un décide de la traîner en justice pour une réponse fausse ayant causé un préjudice réel. Visiblement, l’exactitude est devenue facultative pour l’entreprise qui indexe le monde depuis 1998 ; ce qui nous ferait presque regretter l’époque où il fallait attendre 10 secondes pour que le résultat de notre recherche daigne s’afficher.
- Les AI Overviews de Google, censés résumer des recherches, génèrent des erreurs notables, avec une estimation de plusieurs centaines de milliers de réponses douteuses par minute.
- Malgré un taux de 90 % de résumés corrects, les 10 % restants représentent des millions de fausses informations, compromettant la fiabilité des résultats.
- La conception des AI Overviews permet une synthèse de sources peu fiables, augmentant le risque de désinformation sur Internet.
📍 Pour ne manquer aucune actualité de Presse-citron, suivez-nous sur Google Actualités et WhatsApp.
