L’explosion des modèles d’IA depuis un an et demi comme ChatGPT, Gemini ou le très récent Claude s’accompagne de dizaines de questionnements. Comment nos emplois seront-ils affectés par cette technologie ? Jusqu’où ces IA peuvent-elles réellement comprendre et interagir avec nous ? Dans quelle mesure devrions-nous permettre à ces IA de prendre des décisions de manière autonome, et comment pouvons-nous garantir que les décisions prises sont alignées sur nos valeurs en tant qu’humains vivant en société ?
Parmi ces questionnements, il y en a un qui peut se poser avec une certaine acuité : celui de la moralité des intelligences artificielle. Une étude avait fait remonter récemment la propension de ces chatbots à recourir à la violence dès qu’ils le pouvaient. Cette interrogation mérite donc certainement d’être creusé. C’est justement ce qu’on fait ces chercheurs de l’Université d’État de Géorgie ; les résultats de leurs recherches ont été publiés le 30 avril dans la revue Scientific Reports de Nature.
Tester la moralité des IA
Eyal Aharoni, chercheur principal de l’étude s’est de ce fait penché sur cette question avec son équipe : comment les perceptions extérieures des réponses éthiques générées par l’IA, en l’occurrence ChatGPT, se comparent-elles à celles des réponses humaines ? Cette recherche s’est appuyée sur une adaptation du test de Turing et visait à déterminer si les IA pouvaient, du moins en apparence, se montrer plus morales que les humains dans certains contextes.
Aharoni a donc soumis des étudiants et ChatGPT à un questionnaire portant sur des dilemmes éthiques. Les réponses anonymisées des deux groupes ont ensuite été évaluées par des participants externes selon différents critères : la vertu, l’intelligence ou la fiabilité par exemple. Les résultats, surprenants, ont révélé que les réponses de ChatGPT étaient jugées supérieures à celles des humains en termes de vertu et de fiabilité.
Même s’il y a de quoi être étonné, rappelons tout de même que cette étude ne garantit en aucun cas la supériorité éthique intrinsèque de ChatGPT par rapport à nous autres, humains. Considérons-la plutôt comme une invitation à la réflexion qui porterait sur la manière dont les IA pourraient être utilisées pour guider les comportements éthiques ainsi que sur la place grandissante de l’intelligence artificielle dans nos spère sociales.
Les perceptions biaisées des réponses de l’IA
L’étude d’Eyal Aharoni a mis en lumière un phénomène troublant : la surprise des participants lorsqu’ils découvraient qu’une des réponses était perçue comme éhique provenait d’une IA, ChatGPT en l’occurrence. D’emblée, ils avaient attribué toutes les réponses à des êtres humains. Ce biais révèle une confiance potentiellement excessive dans les capacités morales de l’intelligence artificielle.
Selon Aharoni, cette confiance pourrait s’expliquer par la perception des réponses des IA comme plus cohérentes et impartiales que celles des humains. En effet, les IA sont programmées pour éviter les préjugés et adopter un ton neutre, ce qui peut créer l’illusion d’une moralité supérieure. « Ce qui est intéressant, c’est que la raison pour laquelle les gens ont pu faire la différence semble être qu’ils ont jugé les réponses de ChatGPT comme étant supérieures » explique-t-il. « Si nous avions réalisé cette étude il y a cinq ou dix ans, nous aurions pu prédire que les personnes pourraient identifier l’IA en raison de l’infériorité de ses réponses. Or, nous avons constaté le contraire, à savoir que l’IA était en quelque sorte trop performante ».
L’impartialité supposée des IA, si elle peut sembler séduisante de prime abord, masque en réalité un manque crucial de compréhension contextuelle et d’empathie ; deux éléments essentiels au jugement éthique humain.
Quelles implications pour notre société ?
Si les individus tendent à accorder plus de crédit aux décisions morales des IA qu’à celles des humains, quelles en seront les répercussions ? Aharoni explique : « Nos conclusions nous amènent à penser qu’un ordinateur pourrait techniquement réussir un test moral de Turing, c’est-à-dire qu’il pourrait nous tromper dans son raisonnement moral. Pour cette raison, nous devons essayer de comprendre son rôle dans notre société, car il y aura des moments où les gens ignoreront qu’ils interagissent avec un ordinateur et d’autres où ils le sauront et où ils consulteront l’ordinateur pour obtenir des informations parce qu’ils lui font plus confiance qu’à d’autres personnes ».
En effet, une confiance aveugle dans les IA pourrait conduire à des situations où des décisions prises sans discernement humain, manqueraient de la nuance et de la profondeur éthique requises. « Les personnes vont s’appuyer de plus en plus sur cette technologie, et plus nous nous appuyons sur elle, plus le risque augmente au fil du temps » met en garde Aharoni.
Cette recherche met donc le doigt sur un point essentiel auquel nous serons nombreux à être confrontés : la considération que nous accordons à ce qu’expriment les intelligences artificielles. Si celles-ci peuvent nous être d’une aide fantastique dans certaines de nos tâches quotidiennes, en particulier les professions intellectuelles, elles ne sont pas douées (pour le moment) de capacités qui font l’essence de la moralité humaine. Celle de ressentir, comprendre et agir avec sagesse dans un monde imparfait. Une thématique très largement abordée dans le splendide jeu vidéo de Quantic Dream, Detroit: Become Human. Si vous n’avez pas posé les mains dessus, on ne peut que vous conseiller l’expérience, vous n’en ressortirez pas indemnes.
- Des chercheurs de l’Université d’État de Géorgie ont publié une étude pour tester la moralité de ChatGPT.
- En apparence, cette conclusion pourrait laisser penser que celui-ci était plus moral que les personnes testées. Cependant, cette interprétation est influencée par des biais de perception
- Cet excès de confiance dans les systèmes d’IA pourrait, à termes, avoir des conséquences néfastes.
📍 Pour ne manquer aucune actualité de Presse-citron, suivez-nous sur Google Actualités et WhatsApp.
La moralité a toujours été un code et peut ainsi varier d’une culture, d’une religion à une autre. La moralité est peut-être à la conscience ce que la légalité est à la légitimité, à savoir un code fait par des humains pour des humains pouvant contraster avec le sentiment du bien et du mal logé au plus profond de chacun d’entre nous. La moralité, qu’elle soit religieuse ou laïque (humaniste) entend éclairer une conscience défaillante mais peut être perçue comme astreignante voire contraignante lorsque rigide et froide, et nous savons que ces perceptions en ont fait fuir plus d’un de cet ordre établi ou ainsi ressenti.
–
Une IA n’aura jamais que le code de moralité recueilli au sein des civilisations humaines dans leur diversité au mieux, occidentales seulement au pire. Assisterons-nous jamais à un clash de moralité entre deux IAs, l’une occidentale et l’autre orientale par exemple ? Nous savons déjà et depuis toujours que, toutes religions confondues, l’être humain se sera attardé à en extirper un code, parfois écrit parfois sacré pour les croyants et à le brandir comme l’étendard de la vérité, piètre vérité que celle qui conduit aux guerres et massacres au nom d’une foi instrumentalisée, desservie et non servie. La conscience humaine, au contraire, réunit les hommes et femmes de bonne volonté par-delà tout code, en puisant dans le royaume du sentiment. La moralité peut être un père fouettard, la conscience elle ne l’est jamais parce qu’aucun sentiment ne saurait l’être.
L’IA ne sera jamais pourvue de sentiment, n’est-ce pas ?
Ce souvenir me revient, celui d’une évangéliste rencontrée dans une auberge de jeunesse sise dans la belle et tortueuse ville d’Amsterdam lors d’une escapade de jeunesse durant les années 80.
Elle poursuivi notre conversation en évoquant la difficulté à aider autrui tout en assénant “Cette difficulté je peux la surmonter en sachant que mon salut en dépend”. Elle resta figée, bouche bée quand je lui demanda si le bonheur procuré à l’autre par notre aide, notre soutien n’était pas, en soi, ici et maintenant, la récompense de tous nos efforts. Moralité et sentiment peuvent ainsi à l’occasion se nourrir de perspectives parallèles.