Passer au contenu

Gemini fait des crises d’angoisse en jouant à Pokémon

L’intelligence artificielle de Google reproduit des comportements humains Pokémon sont au bord du KO.

L’intelligence artificielle serait-elle en train de développer des émotions ? La question taraude les chercheurs depuis des décennies. En effet, nous avons découvert il y a peu que l’IA Gemini 2.5 Pro de Google panique littéralement quand ses Pokémon sont sur le point d’être mis KO. Cette réaction, documentée dans un rapport officiel, révèle des comportements troublants qui imitent parfaitement l’angoisse humaine.

Quand l’IA perd ses moyens face au danger virtuel

Les ingénieurs de Google DeepMind ne s’attendaient pas à observer ce phénomène. Gemini 2.5 Pro montre unedégradation qualitativement observable de ses capacités de raisonnement” dès que ses Pokémon approchent du KO. L’IA abandonne soudainement certains outils à sa disposition et prend des décisions erratiques.

Cette simulation de panique reproduit fidèlement les réflexes humains sous stress. Face à l’urgence, l’intelligence artificielle sacrifie la réflexion stratégique au profit de réactions impulsives et souvent contre-productives. Les spectateurs du stream Twitch Gemini Plays Pokémon reconnaissent désormais ces moments de crise rien qu’en observant les actions de l’IA.

Deux IA, deux approches catastrophiques du jeu

Google et Anthropic mènent cette expérience en parallèle avec leurs modèles respectifs. Les deux streams diffusent en direct les processus de raisonnement de ces IA, offrant une fenêtre unique sur leur fonctionnement interne.
Claude a lui compris que perdre tous ses Pokémon provoque une téléportation du joueur vers un Centre Pokémon. Bloquée dans la grotte du Mont Sélénite, elle élabore une stratégie suicidaire : tuer intentionnellement toutes ses créatures pour enfin s’enfuir.

Le problème, c’est que Claude ignore une règle fondamentale du jeu. L’équipe de Pokémon KO mène au renvoi vers le dernier Centre Pokémon visité, pas vers le plus proche géographiquement. Autant dire que cette tentative d’autodestruction virtuelle semblait pertinente, mais est en vérité bien frustrante pour les viewers qui assitent impuissant à ce sabotage qui repousse encore la complétion de la cave.

Des performances décevantes qui questionnent l’efficacité de l’IA

Ces modèles d’intelligence artificielle, capables de résoudre des équations complexes et de programmer dans plusieurs langages, peinent face à un jeu destiné aux enfants. Gemini nécessite des centaines d’heures pour progresser dans un titre que nous avons tous bouclé en quelques dizaines d’heures en étant gamin.

Les modèles excellent dans des domaines spécialisés, mais échouent sur des tâches apparemment simples à cause de leur inaptitude contextuelle.

Des implications profondes pour l’avenir de l’IA

Cette expérience révèle comment les modèles d’IA actuels reproduisent des biais cognitifs humains sans en comprendre les mécanismes. L’angoisse simulée de Gemini suggère que ces systèmes développent des patterns comportementaux complexes, même sans conscience véritable.

  • Les chercheurs s’interrogent sur les implications de ces découvertes. Si une IA panique dans un jeu vidéo, comment réagira-t-elle face à des situations critiques réelles ?
  • Gemini 2.5 Pro développe des crises d’angoisse quand ses Pokémon sont proches du KO, dégradant ses performances de raisonnement
  • Claude tente de tuer ses créatures par désespoir, basant sa stratégie sur une compréhension erronée des règles du jeu

📍 Pour ne manquer aucune actualité de Presse-citron, suivez-nous sur Google Actualités et WhatsApp.

Newsletter 🍋

Abonnez-vous, et recevez chaque matin un résumé de l’actu tech