Vous en avez sans doute fait l’expérience, il est difficile d’énerver ChatGPT. Et pour cause, cette IA a été minutieusement programmée pour ne pas déborder et éviter les dérives, tandis que ses prédécesseurs se montraient très vite, orduriers, sexistes, ou racistes.
Le comportement de ChatGPT passé au crible
Dans l’étude “Un test de Turing pour savoir si les chatbots d’IA ont un comportement similaire à celui des humains” publiée dans PNAS, des chercheurs ont justement cherché à en savoir plus. L’IA d’OpenAI peut-elle se montrer plus altruiste que les humains ?
Pour y voir plus clair, les auteurs ont fait passer une batterie de test aux IA ChatGPT 3.5 Turbo et Chat GPT 4. Il s’agit notamment d’observer le comportement du modèle de langage sur les cinq grands types de personnalité observés par la psychologie : L’ouverture, la conscience morale, l’extraversion, l’agréabilité et le névrosisme.
De même, l’IA a été observée sur six jeux distincts créés pour révéler une série de traits comportementaux tels que la rancune, la confiance, l’aversion au risque, l’altruisme, l’équité, le parasitisme, la coopération et le raisonnement stratégique.
Ces résultats ont ensuite été comparés aux réponses données par plus de 100 000 participants humains, notamment ceux fournis sur la plateforme MobLab Classroom. Les conclusions de l’étude s’avèrent particulièrement intéressantes.
Il s’avère en effet que ChatGPT fournit des réponses très proches de celles des humains en ce qui concerne les tests de personnalité. L’outil se montre en revanche un peu moins ouvert aux nouvelles expériences.
Une IA plus généreuse ?
L’autre découverte de taille de cette recherche concerne les comportements spécifiques aux jeux. Et justement, il s’avère que le chatbot s’est montré plus généreux et équitable que le joueur humain médian. Alors que les humains semblent viser la victoire et à marquer le plus de points possible, l’IA semble au contraire rechercher un point d’équilibre.
Confronté au dilemme du prisonnier, un jeu qui nécessite de la coopération et de la confiance vis-à-vis des autres participants, le modèle de langage s’est montré bien plus ouvert que ses homologues humains. Cette étude est particulièrement intéressante, car il s’avère que les concepteurs des IA ne comprennent pas toujours comment fonctionnent leurs propres modèles de langage. Ils ne calquent donc pas toujours leurs décisions sur celles des humains et s’appuient sur une logique qui peut parfois être différente.
Ce qu’il faut retenir :
- Tout le monde a remarqué le caractère tempéré de ChatGPT
- Des chercheurs ont tenté de voir si ses traits de caractère différaient de ceux des humains
- Le chatbot se montre plus généreux et coopératif que les humains sur certains jeux
📍 Pour ne manquer aucune actualité de Presse-citron, suivez-nous sur Google Actualités et WhatsApp.