Passer au contenu

Quel est le point commun entre l’IA, les pandémies et une guerre nucléaire ?

Des dirigeants de Google, de Microsoft et d’OpenAI signent une déclaration reconnaissant le “risque d’extinction” lié à l’IA.

  • Des dirigeants de Google, Microsoft, OpenAI et d’autres laboratoires d’intelligence artificielle reconnaissent les risques liés à cette technologie
  • “L’atténuation du risque d’extinction de l’IA devrait être une priorité mondiale aux côtés d’autres risques à l’échelle de la société tels que les pandémies et la guerre nucléaire”, lit-on dans la déclaration qu’ils ont signée
  • Si des divergences existent sur certains points, tout le monde semble être d’accord sur le fait qu’une régulation est nécessaire

Depuis l’émergence de ChatGPT, fin 2022, on débat sur les risques liés au développement de ce nouveau type d’intelligence artificielle. Bien entendu, il y a des risques liés aux mauvais usages. Mais il y a également la crainte que les IA génératives finissent par mettre une bonne partie des humains au chômage. Et si vous pensez que seuls quelques marginaux ont peur de l’impact que ces IA auront sur l’humanité, vous vous trompez.

Dans une déclaration publiée récemment, l’ONG Center for AI Safety publie une courte déclaration évoquant ces risques. Et celle-ci a été signée par de nombreux acteurs importants de l’industrie, comme Sam Altman, le PDG d’OpenAI, qui a développé ChatGPT. Dans la liste des signataires, on trouve également plusieurs employés de Google, tels que Demis Hassabis, PDG de Google DeepMind, James Manyika vice-président principal de la technologie et de la société de Google. Du côté de Microsoft, on a Kevin Scott, directeur technique, ainsi que Eric Horvitz, directeur scientifique, parmi les signataires de cette déclaration.

On parle de déclaration et non d’une lettre ouverte, puisque celle-ci ne contient que 22 mots en anglais. Et voici ce qu’elle dit : “L’atténuation du risque d’extinction de l’IA devrait être une priorité mondiale aux côtés d’autres risques à l’échelle de la société tels que les pandémies et la guerre nucléaire.” D’un côté, les signataires reconnaissent donc que le risque que l’IA représente pour l’humanité est bien réel et la déclaration va encore plus loin en comparant ce risque à ceux liés aux pandémies et aux armes nucléaires.

Une déclaration volontairement brève

Cette déclaration est signée par de nombreux PDG, dont ceux d’Anthropic, de Stability AI, Quora, etc., ainsi que par des membres de la communauté scientifique. Selon le Center for AI Safety, “les experts en IA, les journalistes, les décideurs et le public discutent de plus en plus d’un large éventail de risques importants et urgents liés à l’IA”. Mais malgré cela, l’ONG estime qu’il est parfois difficile de discuter publiquement de ces risques. “L’énoncé succinct ci-dessous vise à surmonter cet obstacle et à ouvrir la discussion”, peut-on aussi lire dans le commentaire de la déclaration.

Cité par le New York Times, Dan Hendrycks, directeur exécutif du Center for AI Safety, explique que cette déclaration est comme un “coming out” pour certains signataires. En effet, ceux-ci discutent déjà des risques liés à l’intelligence artificielle en privé, mais ne le font pas publiquement. Et comme la déclaration est courte, elle permet d’éviter de mentionner les points sur lesquels les différents signataires peuvent être en désaccord.

Pour rappel, une autre ONG, Future of Life Institute, a aussi publié une lettre ouverte évoquant les risques “profonds” pour l’humanité que représentent les systèmes d’IA avec une intelligence pouvant rivaliser avec les humains. Celle-ci demandait également un moratoire de six mois sur le développement d’IA plus avancées que GPT-4. Mais si elle a été signée par Elon Musk et Steve Wozniak, la lettre n’a en revanche pas été signée par les principaux acteurs du secteur de l’IA.

L’IA doit être régulée

En tout cas, ce qui est clair, aujourd’hui, c’est que ce nouveau type d’intelligence artificielle doit être régulée. Et justement, l’UE a déjà un projet pour cela, tandis que le président américain Joe Biden s’est réuni avec plusieurs PDG dont ceux de Microsoft, de Google et OpenAI, pour évoquer le sujet. Sinon, certains acteurs ont déjà une idée précise de comment l’IA pourrait être régulée.

Il y a quelques jours, les dirigeants d’OpenAI ont publié un billet de blog sur la gouvernance de ce qu’ils qualifient de “superintelligence”. Parmi les propositions, il y a la création d’un équivalent de l’Agence internationale de l’énergie atomique, mais pour la surveillance de l’intelligence artificielle.

“[…] tout effort dépassant un certain seuil de capacité (ou de ressources comme le calcul) devra être soumis à une autorité internationale qui peut inspecter les systèmes, exiger des audits, tester la conformité aux normes de sécurité, imposer des restrictions sur les degrés de déploiement et les niveaux de sécurité, etc.”, lit-on dans ce billet.

📍 Pour ne manquer aucune actualité de Presse-citron, suivez-nous sur Google Actualités et WhatsApp.

Youtube
Youtube
Par : Google LLC
4.2 / 5
M174.6 avis
1 commentaire
1 commentaire
  1. J’adore tous ces débats, lettres, etc. sur l’IA.
    Y’a vraiment une enorme peur de l’humain de voir arriver quelque chose de “plus intelligent” que lui et une autre peur que le travail humain ne soit plus nécessaire.
    Même si très différents, les 2 sont très liés, c’est une grosse peur de la perte de pouvoir.
    Tant qu’on est les plus intelligent, tant que les humains doivent travailler, les plus riches/puissants ont leur assise sur le monde, si ça change …
    Plutôt que des débats sur la régulation de l’IA, j’aimerai voir emmerger des débats sur l’apport positif et négatif que ça peut avoir sur la condition humaine globale, un débat qui ne se focalise pas uniquement sur la peur de ne plus être l’espèce dominante de la planète.

Les commentaires sont fermés.