Passer au contenu

Ce voyageur se retrouve bloqué à l’aéroport à cause d’une erreur de ChatGPT

ChatGPT peut être très utile pour certaines tâches, mais il faut toujours vérifier les informations qui sont fournies par l’IA. Un auteur australien, qui a été bloqué à l’aéroport à cause d’une erreur de ChatGPT, l’a appris à ses dépens.

De plus en plus de personnes s’appuient sur ChatGPT pour trouver des réponses, au lieu d’utiliser un moteur de recherche. Mais bien que l’IA générative se soit grandement améliorée au cours des deux dernières années, il est encore important de bien vérifier toutes les infos qui sont fournies par les chatbots comme ChatGPT, puisque ceux-ci peuvent parfois produire des erreurs. Récemment, l’auteur australien Mark Pollard l’a appris à ses dépens. En effet, à cause d’une erreur de l’intelligence artificielle, il s’est retrouvé bloqué à l’aéroport, selon un article de BFMTV.

En effet, celui-ci a utilisé ChatGPT pour savoir s’il a besoin de demander un visa pour se rendre au Chili. Et l’IA lui aurait indiqué qu’il n’en a pas besoin, pour un court séjour. À cause de son excès de confiance en l’intelligence artificielle, il s’est retrouvé bloqué à l’aéroport et il a raté une conférence. Mark Pollard a raconté sa mésaventure sur Instagram et X, et l’histoire est devenue virale. “Lorsque ChatGPT vous dit que les Australiens n’ont pas besoin de visa pour entrer au Chili, mais c’est faux et trop tard maintenant”, lit-on dans la vidéo qu’il a postée.

Mark Pollard a été moqué par de nombreux internautes et certains se demandent même si l’histoire n’a pas été montée de toutes pièces pour faire le buzz. Interrogé par nos confrères de BFMTV, celui-ci a réagi : “Mais qui vient à l’aéroport à 8h du matin et se dit ‘Wow, cette vidéo va faire 10 millions de vues?”. En tout cas, l’auteur australien a retenu la leçon. Celui-ci n’arrêtera pas d’utiliser ChatGPT, mais il ne l’utilisera plus pour les choses importantes.

L’avertissement qui s’affiche sur ChatGPT

En tout cas, cette mésaventure est une piqûre de rappel pour tout le monde. Même si les chatbots comme ChatGPT peuvent être extrêmement utiles pour certaines tâches, et que l’IA paraît de plus en plus intelligente, celle-ci est toujours susceptible de fournir des informations fausses.

Et ce n’est pas OpenAI, le créateur de ChatGPT, qui dira le contraire. Sur son site, celui-ci affiche toujours cet avertissement : “ChatGPT peut commettre des erreurs. Vérifiez les informations importantes.”

  • Un auteur australien se retrouve bloqué à l’aéroport, car il n’a pas vérifié une info que ChatGPT lui avait donnée au sujet des visas
  • Sa vidéo est devenue virale sur les réseaux sociaux
  • Cette mésaventure rappelle que, même si les grands modèles de langage sont de plus en plus performants, ils peuvent commettre des erreurs
  • ChatGPT continue d’ailleurs d’afficher un avertissement sur son site

📍 Pour ne manquer aucune actualité de Presse-citron, suivez-nous sur Google Actualités et WhatsApp.

Newsletter 🍋

Abonnez-vous, et recevez chaque matin un résumé de l’actu tech