Vous avez probablement déjà ressenti un sentiment de malaise en interagissant avec ChatGPT ou un de ses concurrents. L’IA est en effet capable de proférer une bêtise ou un mensonge en employant un ton péremptoire, ce qui peut parfois désarçonner.
Dans un article publié dans Nature Human Behaviour, Anthony Chemero, professeur de philosophie et de psychologie à l’université de Cincinnati, s’est justement intéressé à ce phénomène que les développeurs appellent hallucination.
L’IA est totalement désincarnée
Le chercheur commence par rappeler que ces IA sont formées à partir de quantités massives de données provenant d’Internet. Souvent, ces dernières sont empreintes de préjugés et de façons de voir des personnes qui les ont rédigés.
Dans un communiqué publié pour l’occasion, le scientifique rentre ensuite dans les détails :
Les LLM génèrent des textes impressionnants, mais ils inventent souvent des choses de toutes pièces. Ils apprennent à produire des phrases grammaticales, mais ont besoin de beaucoup, beaucoup plus d’entraînement que les humains. Ils ne savent pas vraiment ce que les choses qu’ils disent signifient.
Dans certains cas, il ne faut même pas trop d’effort à l’utilisateur pour parvenir à leur faire prononcer “des choses désagréables qui sont racistes, sexistes et autrement biaisées”, affirme l’auteur.
En réalité, il faut aussi s’extraire du mot intelligence, car ces machines ne sont en rien intelligentes. Les humains sont des êtres incarnés qui sont entourés d’autres personnes avec des environnements matériels et culturels. “C’est pourquoi nous nous soucions de notre propre survie et du monde dans lequel nous vivons”, note l’expert.
ChatGPT et ses concurrents n’ont au contraire aucun instinct de survie ni inhibition. Ils ne comprennent en aucun cas ce qu’ils sont en train de faire ni les enjeux, mais cherchent juste à enchaîner les phrases et les mots de manière logique.
Avec cette approche, on comprend mieux dès lors les nombreuses hallucinations dont peuvent être l’objet ces modèles de langage. Les IA se perfectionnent au fil du temps, mais il semble peu probable qu’elles se débarrassent de ce vilain défaut pour de bon.
Pour rappel, le cinéaste James Cameron avait bien senti ces limites. Lors d’une interview, il a ainsi expliqué qu’il était très sceptique quant à l’utilisation de texte pour rédiger les scénarios : “Je ne crois pas qu’un esprit désincarné qui régurgite ce que d’autres esprits incarnés ont dit – sur la vie qu’ils ont eue, sur l’amour, sur le mensonge, sur la peur, sur la mortalité – et qui rassemble tout cela dans une salade de mots pour ensuite le régurgiter. Je n’imagine pas que ce soit quelque chose qui puisse émouvoir le public”.
Le réalisateur plaisantait même en affirmant que si dans 20 ans, une IA remporte l’Oscar du meilleur scénario, il devra s’incliner.
📍 Pour ne manquer aucune actualité de Presse-citron, suivez-nous sur Google Actualités et WhatsApp.
Parce que ce ne sont pas de vrais IA. Ce sont juste des applications qui génèrent du texte sur des résultats de recherche et qui inventent ces résultats s’ils ne les toruvent pas.
Mais bon, dire que c’est une IA ça permet de lever des fonds, car ça fait futuriste…
On retiendra qu’ “En réalité, il faut aussi s’extraire du mot intelligence, car ces machines ne sont en rien intelligentes.”.
Au final on peut s’interroger sur le fait de savoir si “intelligence” et “artificielle” sont associables, si cela a un sens, est concevable.
Même dans la société humaine n’a-ton jamais rencontré des êtres certes cultivés mais apparemment incapables d’extraire de leur savoir cette substantifique moelle, de la soumettre au crible de la raison, en somme : de la penser ?
Et puis enfin et surtout, qu’est-ce que l’intelligence ? On sait que sa déclinaison est complexe, on différencie aussi entre autres l’intelligence déductive de celle, inductive. Une “IA” semble — mais je ne suis pas spécialiste – peu à même de réaliser la seconde.
Prenez un être vivant, façon Tarzan des temps modernes, seul survivant perdu au fond d’une jungle depuis l’âge de quelques mois, n’ayant jamais été en relation avec un autre esprit humain et donc dépourvu du savoir transmis qui nourrit l’intelligence … sera-t-il imbécile pour autant ? Par contre, une “IA” sans data est totalement inopérante, n’est-ce pas ?
L’intelligence artificielle est bien un abus de langage mais, pire, un abus de la crédulité humaine. Parlons d’agrégation, d’automatisation mais pas d’intelligence.