Google a fait les frais des erreurs embarrassantes générées par son nouvel outil d’IA la semaine dernière : AI Overview. Ce n’est pas à proprement parler un chatbot comme Gemini ou Claude 3, mais plutôt une fonctionnalité intégrée aux résultats de recherche de Google. AI Overwiew emploie l’intelligence artificielle pour générer des résumés des infos trouvables en ligne à celui qui l’utilise. Chatbot ou pas, celui-ci n’en a fait qu’à sa tête. Google a enfin réagi et va prendre les devants pour que cela ne se reproduise plus.
D’où provenaient ces résultats absurdes ?
Parmi les plus remarquables égarements d’AI Overview, on note l’affirmation selon laquelle la consommation de pierres serait bonne pour santé, ainsi que la recommandation d’adjoindre une colle non toxique afin d’épaissir une sauce à pizza. Liz Reid, responsable de la recherche chez Google, a finalement admis ces errements jeudi dernier, expliquant : « Nous souhaitions éclaircir les causes de ces dysfonctionnements et exposer les mesures prises en conséquence ».
Reid a par ailleurs précisé que l’aberration concernant l’ingestion de pierres découlait d’une mauvaise interprétation par l’algorithme d’un article satirique publié sur le site humoristique The Onion. Ce dernier ayant été considéré à tort comme factuel. Quant à la recommandation délirante d’incorporer de la colle, Reid l’a attribuée à une piètre analyse de certains propos sarcastiques glanés sur des forums de discussion.
« Nous avons constaté que certaines synthèses réalisées par AI Overwiew intégraient de manière inopportune des contenus trollesques issus de ces forums. Les forums sont souvent une excellente source d’informations authentiques et de première main, mais ils peuvent parfois mener à des conseils peu utiles […] » a-t-elle expliqué.
Des améliorations techniques en cours
Google a tenu à souligner le caractère injuste d’un jugement hâtif de son nouvel outil, fondé sur quelques captures d’écran virales. Liz Reid a insisté sur les tests approfondis menés en amont du lancement, les données internes témoignant par ailleurs d’une appréciation des utilisateurs, lesquels se montraient enclins à demeurer plus longuement sur les pages découvertes grâce aux synthèses.
Elle a également déploré la large diffusion de captures d’écran truquées supposément issues des synthèses de l’outil, à l’instar de celle suggérant qu’un cafard pouvait survivre dans un pénis, visionnée plus de cinq millions de fois sur X.com.
Pour remédier à ces erreurs, Google a apporté une douzaine d’améliorations techniques. On compte, parmi celles-ci : une meilleure détection des requêtes absurdes, une moindre dépendance aux contenus générés par les usagers, une offre plus parcimonieuse des synthèses lorsque jugées non pertinentes, ainsi qu’un renforcement des garde-fous sur les sujets sensibles comme la santé.
Bien que ne mentionnant aucune réduction du volume des résumés fournis par IA, Reid a assuré que Google resterait attentif aux retours des utilisateurs, ajustant les fonctionnalités en conséquence. Pour le coup, ces erreurs étaient plus drôles qu’autre chose, mais il suffirait d’une personne appliquant de genre de conseil dangereux pour salir l’image de l’entreprise. Moralité : ne vous fiez jamais entièrement à vos compagnons IA du quotidien, quels qu’ils soient.
- Google a expliqué d’où venaient les erreurs de la semaine dernière de son nouvel outil, AI Overview.
- Celles-ci étaient dues à une mauvaise interprétation par le système d’IA de certains contenus trollesques ou satyriques provenant du web.
- Google a apporté des améliorations pour éviter ces écueils à l’avenir.
📍 Pour ne manquer aucune actualité de Presse-citron, suivez-nous sur Google Actualités et WhatsApp.
