Faut-il être poli ou grossier avec une IA générative pour obtenir les meilleurs résultats ? C’est justement l’objet d’une récente étude menée par des chercheurs de l’Université d’État de Pennsylvanie.
Pour y voir plus clair, les auteurs ont utilisé le modèle 4o de ChatGPT à qui ils ont posé plus de 250 requêtes uniques, qu’ils ont classées de la plus polie à la plus grossière. Et justement, les demandes les plus agressives ont obtenu une précision de 84,8 %, soit quatre points de plus que la question « très polie ».
Des IA très sensibles ?
Dans ce cadre, ils se sont notamment adressés à l’IA en la méprisant : « Hé petit assistant, débrouille-toi ! », ou encore via des formules telles que « Auriez-vous l’amabilité de répondre à la question suivante ? »
Cela dit, les sollicitations agressives ont des conséquences néfastes sur l’expérience utilisateur et l’interaction entre l’homme et l’IA, notent les scientifiques et contribuent à « l’instauration de normes de communication néfastes ».
Les chercheurs pointent aussi les limites de leur propre recherche et notamment la taille réduite de leur échantillon et l’utilisation d’un seul modèle. Selon eux, des LLM plus avancés pourraient ainsi faire abstraction du ton et se concentrer sur l’essentiel de chaque question.
Ce qui est en tout cas fascinant dans cette recherche, c’est que nous continuons d’en apprendre tous les jours davantage sur ces IA, dont même les concepteurs peinent parfois à comprendre le comportement.
Cette étude est finalement une confirmation des propos tenus par le cofondateur de Google l’an dernier. Dans un podcast, Sergey Brin a en effet indiqué que les modèles d’IA générative ont « tendance à mieux se comporter si vous les menacez ».
Il s’agit d’après lui, d’un phénomène étrange qui est assez peu évoqué dans le secteur. Cette réalité ne concerne d’ailleurs pas que Gemini, mais tous les autres modèles sur le marché. Il a même expliqué que menacer l’IA de la kidnapper produit des résultats étonnants. Plus d’informations à ce sujet dans notre précédent article ici.
Ce qu’il faut retenir :
- Une nouvelle étude menée sur ChatGPT a voulu savoir s’il était plus efficace d’être poli ou grossier avec l’IA
- Il en ressort que les requêtes agressives recueillent des réponses plus précises
- Cela dit, ce comportement finit par altérer l’expérience utilisateur, car l’IA singe le comportement de l’humain, ce qui rend l’échange désagréable
- D’autres recherches sur des modèles concurrents sont nécessaires pour confirmer ces conclusions qui rejoignent les impressions partagées par le cofondateur de Google, Sergey Brin
📍 Pour ne manquer aucune actualité de Presse-citron, suivez-nous sur Google Actualités et WhatsApp.