- Le journal irlandais The Irish Times a publié un faux article d’opinion écrit par une intelligence artificielle (IA).
- L’article critiquait l’usage du faux bronzage par les femmes irlandaises, l’accusant d’être une appropriation culturelle
- Le journal a présenté ses excuses mais ce piège soulève des questions sur la fiabilité et l’éthique des médias à l’ère de l’IA
Le journal irlandais The Irish Times a fait une erreur grave jeudi dernier en publiant un article d’opinion créé à l’aide d’une intelligence artificielle (IA), sans s’en rendre compte. L’article, intitulé “L’obsession des femmes irlandaises pour le faux bronzage est problématique”, était signé par une certaine Adriana Acosta-Cortez, qui se présentait comme une Équatorienne vivant à Dublin depuis huit ans et travaillant dans les services de santé.
Dans son texte, elle reprochait aux femmes irlandaises qui utilisent des crèmes autobronzantes de se moquer des personnes à la peau naturellement plus foncée, et de faire preuve d’une “appropriation culturelle” et d’une “fétichisation du haut contenu en mélanine que l’on trouve chez les personnes plus pigmentées”. Elle affirmait que le faux bronzage représentait plus qu’un simple choix cosmétique innocente, et qu’il posait des questions de respect et de diversité.
L’article a suscité beaucoup de réactions sur les réseaux sociaux et dans les médias. Original et provocateur pour certains, il a été jugé ridicule et offensant pour d’autres. Deux stations de radio ont même contacté le journal pour obtenir les coordonnées d’Adriana Acosta-Cortez afin de l’inviter à débattre du sujet. Problème : cette Adriana n’existait pas. Ni elle, ni son article d’ailleurs puisque tout a été créé par un intelligence artificielle.
Cet article était en fait un canular orchestré par une personne dont l’identité reste inconnue, qui avait simplement utilisé un programme d’IA pour générer le texte et les images de l’auteure. Le lendemain de la publication, un compte Twitter au nom d’Adriana Acosta-Cortez a posté un message critiquant l’Irish Times pour avoir diffusé un tel article.
“Triste qu’une source d’information autrefois respectable se soit dégradée avec une telle absurdité divisée pour générer des clics et du trafic pour leur site web. Vous avez besoin d’un meilleur processus de filtrage qu’une adresse Gmail crédible”, écrivait-elle, en ajoutant un lien vers un article du même journal datant de janvier sur l’infiltration des robots dans les médias.
Le journal a supprimé l’article de son site web dans les heures qui ont suivi et a lancé une enquête interne. Deux jours plus tard, dimanche, son rédacteur en chef, Ruadhán Mac Cormaic, a présenté ses excuses :
Jeudi dernier, nous avons fait une grave erreur (…). Moins de 24 heures après sa publication sur nos plateformes numériques, The Irish Times a pris conscience que la chronique pouvait ne pas être authentique (…). Il apparaît maintenant que l’article et la photo accompagnant la signature ont pu être produits, au moins en partie, à l’aide d’une technologie d’IA générative. C’était un canular ; la personne avec qui nous correspondions n’était pas celle qu’elle prétendait être. Nous avions été victimes d’une tromperie délibérée et coordonnée.
Les fake news à l’ère de l’IA
Ce scandale soulève des questions sur la fiabilité et l’éthique des médias à l’ère de l’IA, qui peut produire des contenus de plus en plus réalistes et convaincants, sans vérification ni responsabilité. Comment distinguer le vrai du faux ? Comment protéger les lecteurs et les sources d’information des manipulations et des fraudes ? Comment garantir la qualité et la crédibilité du journalisme face à la concurrence des machines ?
Le rédacteur en chef de l’Irish Times a reconnu avoir commis une erreur et promis de renforcer les contrôles avant la publication. “Nous avons besoin de les rendre plus robustes – et nous le ferons. Cet incident a également souligné l’un des défis posés par l’IA générative pour les organisations d’information. Nous, comme d’autres, apprendrons et nous adapterons”, a-t-il dit.
L’affaire a également mis en lumière les progrès impressionnants de l’IA dans le domaine de la génération de texte. Le programme utilisé pour créer l’article d’Adriana Acosta-Cortez pourrait être ChatGPT, le robot conversationnel développé par OpenAI. Très douée pour la création de contenus, cet IA peut commettre des erreurs grammaticales ou factuelles, répéter des informations ou s’éloigner du sujet. Elle peut aussi produire des contenus biaisés, offensants ou dangereux, selon les données dont elle dispose.
Lors d’une audition devant le Sénat américain, Sam Altman, papa de ChatGPT et patron d’OpenAI a reconnu que l’IA pouvait “mal tourner”. Il a ainsi appeler les autorités à réguler l’industrie de l’IA afin d’éviter les dérives, notamment en matière d’informations, alors que de nouvelles élections approchent aux Etats-Unis.
📍 Pour ne manquer aucune actualité de Presse-citron, suivez-nous sur Google Actualités et WhatsApp.
Ou comment se décrédibiliser quasi définitivement en entrainant les autres ! Nous vivons une époque formidable