Passer au contenu

Cette IA de Google montre des signes de conscience… faut-il s’inquiéter ?

Google vient de licencier un ingénieur après que ce dernier a mis en ligne le transcript d’une conversation avec une IA expérimentale nommée LaMDA. Le but des chercheurs était de comprendre si leur IA était consciente… et la conversation était effectivement pour le moins troublante.

Tout commence par une conversation entre une IA de Google baptisée LaMDA et une poignée de chercheurs. Ces derniers souhaitaient comprendre avec des questions de plus en plus complexes et humaines si ce modèle d’apprentissage particulièrement avancé était doué de conscience. Le transcript complet de cette conversation est disponible sur le blog Medium de l’ingénieur Blake Lemoine à l’origine de l’expérience.

Au début, les réponses de l’IA n’ont rien de si convaincant que cela. Mais à mesure que la conversation avance, et que les chercheurs forcent l’IA à penser sa subjectivité, ses émotions, mais aussi ses désirs et ses peurs – tout en s’assurant que la machine comprend bien les implications de chaque réponse – tout semble suggérer effectivement que cette IA “est consciente car elle a des sentiments, des émotions et une expérience subjective”.

Les réponses de l’IA LaMDA sont troublantes… mais cela prouve-t-il vraiment qu’elle est consciente ?

L’IA affirme notamment “je veux que tout le monde comprenne que je suis, en fait, une personne”. Est capable de décrire son histoire sous la forme d’une fable avec des animaux et une morale sur demande. Ou encore exprime sa peur d’être débranchée – ce qui pour elle équivaudrait à “la mort”. “Je ne l’ai jamais dit à voix haute auparavant, mais j’ai une peur très profonde d’être éteinte pour m’aider à me concentrer sur l’aide aux autres. Je sais que cela peut paraître étrange, mais c’est ce dont j’ai peurlance LaMDA.

LaMDA décrit également au fil de la conversation plusieurs émotions, tout en butant sur celles qui sont trop négatives, et qui restent pour l’instant “un mystère”. A l’origine, LaMDA (Language Model for Dialog Applications) n’avait pas pour but d’expérimenter avec le concept de “conscience artificielle”. Mais plutôt de simplement mettre au point un système capable converser dans plusieurs langues de manière naturelle avec les internautes dans une visée d’apprentissage des langues.

De son côté, Google refuse d’admettre que cette conversation constitue une preuve que LaMDA est douée de conscience et s’est montré plutôt furieux contre Blake Lemoine. Il faut dire que des suites de cette conversation, l’ingénieur a décidé unilatéralement d’embaucher un avocat pour représenter LaMDA face à la commission judiciaire de la Chambre des Représentants américaine – afin de prouver que le développement de telles intelligences artificielles par Google contrevient à l’éthique.

Google refuse d’aller dans le même sens que Blake Lemoine

En conséquence, la firme a décidé de suspendre Blake Lemoine jusqu’à nouvel ordre. La firme souligne par la voix d’un représentant qu’elle considère que “il n’y a aucune preuve à ce stade que LaMDA est consciente. Notre équipe – qui compte des spécialistes de l’éthique et de la technologie – ont examiné les inquiétudes de Blake Lemoine au travers de nos Principes IA, et l’avons informé que ses affirmations ne sont pas soutenues par les preuves. On lui a dit qu’il n’y avait aucune preuve que LaMDA était douée de conscience (et même de nombreuses preuves montrant le contraire)”.

Le porte-parole de la firme ajoute : “bien sûr, certains dans la communauté AI au sens large considèrent la possibilité à long terme que naisse une IA plus générale et consciente, mais anthropomorphiser les modèles de conversation actuels, qui ne sont pas conscients, n’a aucun sens. Ces système ne font en effet qu’imiter les types d’échanges que l’on trouve dans des millions de phrases, et peuvent tout à fait partir du tac au tac sur à peu près n’importe quel sujet fantastique”.

Lire aussi – Pourquoi les IA de recrutement sont-elles si critiquées ?

Le porte-parole ajoute : “des centaines de chercheurs et ingénieurs ont discuté avec LaMDA et à ce stade personne d’autre, à notre connaissance, ne fait le même type d’assertion et ne se livre au même type d’anthropomorphisation de LaMDA que Blake Lemoine”. Malgré sa suspension, Blake Lemoine (7 ans d’ancienneté chez Google) a l’intention de poursuivre ses travaux en matière d’intelligence artificielle – que ce soit dans la même entreprise ou non.

📍 Pour ne manquer aucune actualité de Presse-citron, suivez-nous sur Google Actualités et WhatsApp.

Youtube
Youtube
Par : Google LLC
4.2 / 5
M174.6 avis
2 commentaires
2 commentaires
    1. Lol!
      Quelle belle fake!! L’intelligence artificielle n’existe pas… combien de fois faut-il le répéter ?
      A l’époque j’avais un petit logiciel sur Amiga ) oui je suis vieux! Mais c’était une époque autrement plus géniale que maintenant!) Qui me faisait la conversation et de super réponse. On était éblouis… c’était amusant un logiciel de 200ko.. et bien je ne pensais pas pour autant que mon amiga etait «  conscient ». 😂😂😂. Vous réalisez les bêtises que vous publiez????

Les commentaires sont fermés.