Passer au contenu

« Imprévisibles et difficiles à contrôler » : cet essai sur l’IA du PDG d’Anthropic fait froid dans le dos, mais apporte aussi des solutions

C’est un essai de 20 000 mots qui secoue le petit monde de l’IA. Le PDG d’Anthropic, Dario Amodei, avertit sur les dangers liés à l’intelligence artificielle, tout en proposant des solutions.

Faut-il craindre l’IA ? C’est un sujet qui agite les esprits depuis quelques années. Dans une société biberonnée par la science-fiction, genre ayant donné naissance à certaines figures intimidantes comme HAL, le Terminator ou l’agent Smith, l’émergence concrète d’une telle technologie dans nos quotidiens peut faire peur. A raison ? Oui, selon Dario Amodei, le PDG d’Anthropic (auteur du chatbot Claude).

Dans un essai de 20 000 mot publié sur le net, Amodei dresse un état des lieux des dangers que peuvent représenter les IA mal contrôlées. Il ne s’agit pas seulement d’un avertissement sans fondement, mais bien d’une liste exhaustive de ce qui nous attend. Au lieu de prédire la fin du monde tel un prophète fou, il souhaite apporter des solutions concrètes afin de prévenir toute dérive. Sa conclusion est même plutôt optimiste, mais elle implique de rester vigilant.

L’IA peut-elle prendre le pouvoir ?

La première crainte, la plus logique, est celle que les IA prennent le pas sur l’humain.

« Il existe désormais de nombreuses preuves, recueillies ces dernières années, que les systèmes d’IA sont imprévisibles et difficiles à contrôler ; nous avons observé des comportements aussi variés que des obsessions, la flagornerie, la paresse, la tromperie, le chantage, les manigances, le piratage informatique et bien d’autres choses. (…) Certaines dynamiques inhérentes au processus d’apprentissage des systèmes d’IA puissants les conduiront inévitablement à rechercher le pouvoir ou à tromper les humains. »

Pourrait-on ainsi assister à l’émergence d’un Skynet dont l’objectif serait de prendre le pouvoir ? Ce serait une erreur d’interprétation, selon Amodei. Il argue en effet que les IA disposent de leur propre logique, pas nécessairement calquée sur la pensée humaine :

« L’une des hypothèses implicites les plus importantes, et un point de divergence entre la pratique et le modèle théorique simpliste, réside dans l’idée que les modèles d’IA sont nécessairement focalisés de manière obsessionnelle sur un objectif unique. (…) La soif de pouvoir elle-même pourrait émerger comme une « personnalité » plutôt que comme le fruit d’un raisonnement conséquentialiste. Les IA pourraient simplement posséder une personnalité (issue de la fiction ou d’un pré-entraînement) qui les rend avides de pouvoir ou excessivement zélées ».

Pour ce dernier point, il évoque les oeuvres littéraires, cinématographiques ou autres qui servent à entraîner les modèles, et ainsi définir leur “traits”.

Ne pas craindre l’IA, mais l’humain derrière

Il faut donc se rassurer vis-à-vis de l’IA ? Pas vraiment, car le danger ne viendra pas forcément de nos ordinateurs, mais bien de l’humain derrière. Que se passerait-il si une nation malveillante misait tout sur l’IA ? Si l’Allemagne nazie ou l’URSS avait disposé d’un tel outil ? L’histoire aurait été bien différente. Pas besoin d’aller à l’échelle d’un état pour craindre une telle dérive. Avec un outil qui surpasse en connaissance et en logique n’importe quel prix Nobel, des gens mal intentionnés pourraient sévir :

« Elle (l’IA) pourrait potentiellement amplifier la capacité de certains individus ou petits groupes à causer des destructions à une échelle bien plus vaste qu’auparavant, en utilisant des outils sophistiqués et dangereux (tels que des armes de destruction massive) autrefois réservés à une élite hautement qualifiée, ayant bénéficié d’une formation spécialisée et d’une concentration extrême. »

Il évoque également d’autres soucis qui pourraient émerger, comme la production automatique d’armes, l’utilisation de l’IA à des fins de propagande, de surveillance, ou tout simplement pour prendre des décisions stratégiques. C’est un exemple très concret, puisqu’Amodei évoque déjà son utilisation par la Chine, qui investit massivement dans l’IA, tout en restant derrière les Etats-Unis pour l’instant.

Un monde condamné ?

Si Dario Amodei évoque toutes ces problématiques, c’est pour mieux avertir et ainsi les contrer. Optimiste, le PDG d’Anthropic plaide pour une utilisation mesurée et intelligente. Grâce à l’IA, un siècle de progrès inédit nous attend, et ce dans tous les domaines. Il faut dire que chaque être humain aura accès à une connaissance illimitée ainsi qu’à un assistant personnel plus brillant que tous les grands cerveaux réunis. Mais cette révolution entraînerait également de nouveaux comportements dignes d’un épisode de Black Mirror (série qu’il cite explicitement ) :

« Par exemple, des IA puissantes pourraient-elles inventer une nouvelle religion et convertir des millions de personnes ? La plupart des gens pourraient-ils devenir dépendants des interactions avec l’IA ? Pourrions-nous finir par être manipulés par des systèmes d’IA, qui surveilleraient chacun de nos mouvements et nous dicteraient nos actions et nos paroles en permanence, nous menant à une vie « satisfaisante » ? ».

Ce ne sont là que des supputations, mais tout est imaginable. Alors que faire ? Apprendre à vivre avec l’IA, déjà, mais aussi calmer les ardeurs des géants de la tech qui misent énormément dessus. C’est là l’épreuve la plus difficile, car elle touche à une économie florissante :

« L’IA génère des profits colossaux – littéralement des milliards de dollars par an – si bien que même les mesures les plus simples peinent à contrer les enjeux politiques et économiques qui lui sont inhérents. »

Si vous souhaitez lire l’essai de Dario Amodei dans son intégralité, il est disponible à cette adresse (et il est passionnant).

📍 Pour ne manquer aucune actualité de Presse-citron, suivez-nous sur Google Actualités et WhatsApp.

Newsletter 🍋

Abonnez-vous, et recevez chaque matin un résumé de l’actu tech