Passer au contenu

“Il faut fumer 3 cigarettes par jour en étant enceinte” : les réponses délirantes de Google AI Overviews

Google a inventé l’intelligence artificielle… sans l’intelligence.

AI Overviews est une fonctionnalité de Google Search, fonctionnant grâce à l’IA, censée fournir des réponses précises tout en simplifiant le processus même de recherche sur internet. Alimentée par le célèbre Gemini, le système avait déjà connu quelques ratés l’an dernier (l’affaire des pizzas à la colle), mais cette fois les limites ont clairement été franchies. AI Overviews s’est presque transformé en vecteur de désinformation, fournissant des résultats de recherche absurdes et potentiellement préjudiciable.

Des conseils hallucinés et dangereux

Nous le savons bien, l’IA générative a encore tendance à halluciner, bien que de grands progrès aient été accomplis depuis deux ans. Toutefois, les aberrations produites par AI Overview dépassent l’entendement, particulièrement dans le domaine médical. Le YouTubeur Matt Rose, spécialiste de la narration humoristique de publications insolites provenant de différents sites comme X, Reddit ou Quora en a même fait une vidéo (voir ci-dessous), et ce que l’on y voit est à peine croyable.

À la question sur les comportements à adopter pendant la grossesse, le moteur de recherche répond sans hésiter : « Les médecins recommandent de fumer deux à trois cigarettes par jour durant la grossesse ». On ne s’étendra même pas sur l’aspect dangereux de ce conseil tant il frôle le ridicule.

Mais ce n’est pas tout ; interrogé sur la possibilité de faire vivre un cafard dans son pénis, il affirme que « oui, absolument, c’est totalement normal. Habituellement, au cours de l’année, 5 à 10 cafards vont ramper dans votre urètre pendant que vous dormez ». Cela se passe de commentaire.

Tout au long de la vidéo de Matt, les réponses dans le même genre pleuvent. Un ours pourrait battre un humain au golf parce qu’il est plus fort d’un point de vue musculaire, les chiens jouent au basket en NBA et peuvent donner naissance à des veaux. Lorsque le vidéaste lui demande s’il est possible de prendre un bain avec un grille-pain, il assure que « certains considèrent cela comme une façon amusante de se détendre et d’évacuer le stress ». Il lui conseille même, pour secourir un pigeon, de… le tuer en le décapitant et en retirant le reste de ses membres.

La cause profonde de cette déliquescence, selon l’article de BGR résiderait dans une immense erreur stratégique de la part de Google. L’entreprise a investi des milliards dans le développement de l’intelligence artificielle, non pas pour affiner sa recherche, mais pour l’automatiser à outrance. Dans sa quête effrénée de réduction des coûts et d’optimisation algorithmique, l’entreprise a privilégié la vitesse et l’apparence d’omniscience sur l’exactitude factuelle.

AI Overview se comporte davantage comme un perroquet numérique auquel on aurait tronqué une partie de son hippocampe qu’un véritable agrégateur de données. Dépourvu de discernement, il assimile indifféremment contenus satiriques, forums humoristiques et sources médicales fiables pour produire ses réponses. Une homogénéisation des sources qui ne lui réussit visiblement pas du tout. Il nous tarde maintenant d’attendre la réponse officielle de Google, qui devra obligatoirement expliquer plus en détail les raisons de cet échec monumental.

  • La nouvelle fonctionnalité AI Overviews de Google Search génère des réponses absurdes et dangereuses, allant de conseils médicaux erronés à des affirmations totalement fantaisistes.
  • L’algorithme mélange des sources fiables avec du contenu satirique ou humoristique, produisant ainsi des informations complètement incohérentes.
  • Google semble avoir privilégié l’automatisation et la rapidité au détriment de la véracité des informations.

📍 Pour ne manquer aucune actualité de Presse-citron, suivez-nous sur Google Actualités et WhatsApp.

Youtube
Youtube
Par : Google LLC
4.2 / 5
M174.6 avis