Passer au contenu

Cette société recrute un coach bien-être pour éviter que l’IA ne fasse un burnout

Un recrutement atypique qui pose de nombreuses questions.

Nos chatbots sont-ils surmenés ? Se sentent-ils rabaissés ou mal traités ? Ces questions, qui pourraient faire éclater de rire certains de nos lecteurs, sont au cœur d’un mystérieux recrutement au sein de la société d’IA Anthropic. Retour sur une décision très surprenante et sur ses fondements.

Protéger « les intérêts » des systèmes d’IA

Business Insider revient ainsi sur l’embauche du chercheur Kyle Fish par Anthropic. Ce dernier est censé réfléchir au « bien-être » de l’IA. En clair, et à mesure que ces technologies évoluent, il devra garantir que l’intelligence artificielle soit suffisamment respectée.

La société dit ainsi évaluer « quelles capacités sont nécessaires pour qu’un système d’IA soit digne de considération morale » et quelles mesures pratiques les compagnies peuvent prendre pour protéger les « intérêts » des systèmes d’IA.

L’intéressé lui-même n’a pas souhaité réagir auprès de nos confrères. Il a toutefois déjà évoqué ce sujet par le passé :

Je veux être le type de personne qui se soucie – tôt et sérieusement – de la possibilité qu’une nouvelle espèce/un nouveau type d’être les IA Ndlr) puisse avoir ses propres intérêts qui comptent moralement.

L’IA bientôt dotée de sensibilité ?

Cette prise en considération n’est d’ailleurs pas désintéressée, puisqu’il pense que, si nous les traitons correctement, les IA pourraient nous rendre la pareille à l’avenir si elles deviennent plus puissantes que nous.

Chez les tenants de cette conception, il y a cette idée que ces technologies pourraient bientôt être dotées d’une conscience. Elles ne seraient donc pas seulement intelligentes, mais aussi sensibles.

Les partisans de cette idée comparent ces interrogations aux précédents débats sur les droits des animaux. Cité par le site américain, Jeff Sebo, directeur du Center for Mind, Ethics, and Policy de l’Université de New York, développe ainsi :

Si vous regardez en avant dans 10 ou 20 ans, lorsque les systèmes d’IA auront beaucoup plus de caractéristiques cognitives informatiques associées à la conscience et à la sensibilité, vous pouvez imaginer que des débats similaires vont avoir lieu

Une version contestée

Comme le souligne à juste titre le média économique, il est assez stupéfiant de s’inquiéter des droits futurs des machines, alors même que certaines servent aujourd’hui à faire reculer des droits humains. L’exemple brutal de programmes qui permettent de refuser des soins de santé à des enfants malades ou à diffuser de la désinformation en ligne, ou encore à guider des drones de combats équipés de missiles qui font d’énormes dégâts. Le message est passé.

📍 Pour ne manquer aucune actualité de Presse-citron, suivez-nous sur Google Actualités et WhatsApp.

Newsletter 🍋

Abonnez-vous, et recevez chaque matin un résumé de l’actu tech