- Google prépare son intelligence artificielle Bard, alors que ChatGPT est déjà intégré à Bing
- Mais un responsable de la firme prévient que ce type d’IA peut conduire à des “hallucinations”
- Sam Altman, patron d’OpenAI, avait aussi prévenu qu’il ne faut pas se fier à ChatGPT pour les requêtes “factuelles”
Google développe un chatbot similaire à ChatGPT appelé Bard, et basé sur sa technologie LaMDA. Mais pour le moment, ce type d’IA peut vous induire en erreur. Selon Business Insider, dans une interview avec le journal allemand Welt Am Sonntag, le responsable du moteur de recherche de Google a expliqué pourquoi il faut pour le moment rester vigilant.
“Ce type d’intelligence artificielle dont nous parlons actuellement peut parfois conduire à ce que nous appelons des hallucinations”, aurait déclaré Prabhakar Raghavan, dans cette interview. Une déclaration qui rappelle l’avertissement d’OpenAI concernant ChatGPT, en décembre.
Google hésite ?
On peut imaginer que Google est donc dans une situation délicate. Concurrence oblige, la firme travaille sur un chatbot pour son moteur de recherche. Actuellement, son IA Bard est testée par quelques utilisateurs. Mais d’un autre côté, il y a la responsabilité, car Google ne souhaite pas produire des réponses fausses pour les utilisateurs. Récemment, John Hennessy, président d’Alphabet (maison-mère de Google), s’est également exprimé sur cette situation. Selon CNBC, lors d’un événement de la société de capital-risque Celesta Capital, il a évoqué “l’hésitation” que Google a eue.
Pour rappel, le chatbot Google Bard est testé par les employés de la firme, et par des testeurs externes. Selon Sundar Pichai, PDG du groupe, ces tests serviront à améliorer les réponses de l’IA, de manière à ce que celles-ci “atteignent un niveau élevé de qualité, de sécurité et d’ancrage dans les informations du monde réel.” Bard devrait être accessible à plus d’utilisateurs dans les prochaines semaines.
Un avertissement similaire pour ChatGPT
Aujourd’hui, la plupart des utilisateurs de ChatGPT sont impressionnés par les performances de l’IA d’OpenAI, qui a récemment été intégrée à Bing. Mais pour le moment, ChatGPT produit parfois des erreurs. Et d’ailleurs, Sam Altman, le patron d’OpenAI, a déjà prévenu à ce sujet. “ChatGPT est incroyablement limité, mais assez bon pour certaines choses pour créer une impression trompeuse de grandeur”, a-t-il écrit sur Twitter en décembre.
ChatGPT is incredibly limited, but good enough at some things to create a misleading impression of greatness.
it's a mistake to be relying on it for anything important right now. it’s a preview of progress; we have lots of work to do on robustness and truthfulness.
— Sam Altman (@sama) December 11, 2022
Selon lui, faire confiance à ChatGPT pour des projets importants serait une erreur. Vous pouvez vous en servir comme source d’inspiration, mais ne faites pas encore confiance à cette IA pour les “requêtes factuelles”. Cela n’a cependant pas empêché OpenAI de lancer ChatGPT Plus, une version payante du chatbot. Cette version payante, disponible en France, permet d’avoir un meilleur temps de réponse, et d’avoir accès à ChatGPT même quand les utilisateurs sont nombreux. De plus, la version payante donne un accès prioritaire aux nouveautés.
📍 Pour ne manquer aucune actualité de Presse-citron, suivez-nous sur Google Actualités et WhatsApp.

Comme toutes les nouvelles technologies de l’atome en passant par la voiture et l’internet il y a un côté pile et un côté face. Le chatgpt nous permet d’ouvrir notre esprit à d’autres réponses comme il peut être un puissant moyen d’influence pour ne pas dire de manipulation. Il nous appartient de garder notre discernement et ne pas le céder à la première élite qui se présente. Gardez à l’esprit : “la confiance n’exclut pas le contrôle” avec cet adage vous éviterez (normalement) arnaque, escroquerie, malveillance. De là, à refuser toute évolution technologique c’est en pure perte. Si ce n’est lui c’est l’autre qui le fera. Nous devons nous adapter, prendre le meilleur, rejeter le pire et être vigilant.