Passer au contenu

Des conséquences « irréversibles » : cette décision imminente pourrait sceller le sort de l’humanité face à l’IA

Alors que l’intelligence artificielle (IA) occupe une place toujours plus centrale dans nos vies et que les investissements colossaux dans les infrastructures se multiplient à un rythme inédit, une figure majeure du secteur alerte sur un point de bascule imminent.

Jared Kaplan, scientifique en chef et cofondateur d’Anthropic, l’une des entreprises d’IA les plus valorisées au monde, estime qu’un choix fondamental devra être fait dans les prochaines années, et qu’il pourrait être « irréversible ».

Dans une interview accordée au Guardian, l’homme formé à Stanford et Harvard, passé par Johns Hopkins, le CERN puis OpenAI, rappelle que, pour l’instant, les systèmes d’IA sont encore développés sous supervision humaine. Mais cette situation pourrait bientôt changer.

Selon lui, l’humanité devra décider, entre 2027 et 2030, s’il faut autoriser les modèles d’IA à s’entraîner et à s’améliorer eux-mêmes, sans intervention humaine directe. Une perspective qu’il décrit comme « le risque ultime ». S’il reconnaît que les efforts d’alignement menés jusqu’à présent ont permis de maintenir les systèmes d’IA en phase avec les intérêts humains, il s’inquiète des conséquences d’une telle décision. « Cela ressemble à un processus assez effrayant. On ne sait pas où cela mène », confie-t-il.

Une fois lancée, cette dynamique pourrait conduire à une « explosion d’intelligence », capable de produire une intelligence artificielle générale (AGI) dépassant les capacités humaines, avec des effets potentiellement bénéfiques, mais aussi des risques majeurs.

Anthropic Claude
© T. Schneider / Shutterstock.com

Quitte ou double

Dans le meilleur des cas, Kaplan estime que cette évolution pourrait accélérer la recherche et les avancées dans de nombreux domaines clés, et offrir davantage de temps libre aux humains. Néanmoins, le scénario inverse reste possible. « Une fois que plus personne n’est impliqué dans le processus, on ne sait plus vraiment ce que font les IA », avertit-il.

Il évoque, notamment, le risque de perte de contrôle et la difficulté à comprendre les décisions prises par des systèmes devenus plus intelligents que leurs concepteurs. Cette inquiétude rejoint les positions de Geoffrey Hinton, l’un des trois parrains de l’IA moderne, qui a récemment admis regretter une partie de son travail. De même, les conséquences sociales, sur l’emploi entre autres, inquiètent les experts au plus haut point.

À l’instar de Kaplan, qui affirme que l’IA serait probablement capable d’effectuer « la plupart des emplois de cols blancs » d’ici deux à trois ans. Une estimation proche de celles avancées par Sam Altman, patron d’OpenAI, qui évoque la disparition de catégories entières de métiers. Dario Amodei, PDG d’Anthropic, a de son côté fait savoir que l’IA pourrait remplacer une large part des emplois de bureau débutants.

Intelligence Artificielle Start Up Arnaque
© Unsplash / Igor Omilaev

Des avis divergents

Tous les experts ne partagent toutefois pas cette vision. Yann LeCun, ancien scientifique en chef de l’IA chez Meta et autre figure fondatrice du domaine, estime que les modèles actuels ne sont pas capables d’évoluer vers une intelligence générale autonome.

Kaplan ne remet d’ailleurs pas en cause cette incertitude. « Il est possible que tout cela stagne. Peut-être que la meilleure IA que nous aurons jamais est celle que nous avons aujourd’hui. Mais nous ne pensons vraiment pas que ce soit le cas », admet-il. Car le progrès est si rapide, selon lui, que la société n’aura pas forcément le temps de s’adapter à la prochaine avancée majeure.

  • Jared Kaplan, scientifique en chef d’Anthropic, estime que l’humanité devra décider entre 2027 et 2030 s’il faut laisser les IA s’entraîner et s’améliorer seules.
  • Cette décision pourrait déclencher une « explosion d’intelligence » aux bénéfices majeurs, mais aussi entraîner une perte de contrôle sur des systèmes dépassant les capacités humaines.
  • Si certains experts alertent déjà sur des conséquences lourdes, d’autres estiment que les limites actuelles de l’IA pourraient freiner cette trajectoire.

📍 Pour ne manquer aucune actualité de Presse-citron, suivez-nous sur Google Actualités et WhatsApp.

Newsletter 🍋

Abonnez-vous, et recevez chaque matin un résumé de l’actu tech