Passer au contenu

À vouloir aller trop vite, l’IA pourrait-elle signer la fin de l’humanité ?

De plus en plus de spécialistes verbalisent leurs inquiétudes concernant les progrès de l’intelligence artificielle.

  • Spécialisé dans l’IA, Eliezer Yudkowsky partage ses craintes
  • À ses yeux, il faut arrêter les recherches sur l’IA pour une durée indéterminée
  • Le développement trop rapide de l’IA pourrait mener l’humanité à sa perte

Qu’elle fascine ou effraie, ou les deux à la fois, l’intelligence artificielle est au cœur de nombreux débats à l’heure actuelle. Face à sa montée en puissance, de nombreux experts appellent à une pause d’au moins six mois. Plus radical, le chercheur et théoricien au Machine Intelligence Research Institute, Eliezer Yudkowsky, appelle à arrêter les recherches sur l’IA pour une durée indéterminée.

À ses yeux, l’intelligence artificielle se développe trop rapidement, ce qui pourrait être fatal pour l’humanité. Le chercheur s’inquiète du futur, quand une IA plus intelligente que l’humain sera bel et bien là. La tête dans le guidon, les dirigeants et experts du secteur pourraient “franchir des lignes critiques sans s’en apercevoir”.

Ainsi, dans sa tribune publiée par le Time Magazine, Eliezer Yudkowsky peint un futur digne d’un film de science-fiction si nous n’arrêtons pas les frais avant qu’il ne soit trop tard. Pour lui, c’est certain : développer une IA surhumainement intelligente, dans les conditions actuelles, aura pour résultat la mort de chaque personne sur Terre. À ses yeux, créer quelque chose de plus intelligent n’est pas forcément problématique. À condition d’avoir “la précision, la préparation et les nouvelles connaissances scientifiques”. Ce qui n’est pas encore le cas à l’instant T.

Pour accompagner ses arguments, le chercheur compare l’affrontement à une IA surpuissante à “un enfant de 10 ans essayant de jouer aux échecs contre Stockfish 15”, “le XIème siècle essayant de combattre le XXIème siècle” ou encore “un australopithèque essayant de lutter contre un Homo sapiens”.

Eliezer Yudkowsky est formel : une intelligence aussi puissante ne se cantonnera pas aux ordinateurs. En effet, il est aujourd’hui possible d’envoyer des séquences d’ADN par e-mail à des laboratoires qui produiront des protéines la demande. L’IA pourrait, alors, créer des formes de vie artificielle. Rien de bien rassurant.

Pas de plan “au cas où”

Selon le théoricien du MIRI, le véritable problème réside dans le fait que les entreprises majeures du secteur ne semblent avoir aucun projet, si elles perdent le contrôle sur leurs recherches sur l’intelligence artificielle. De son côté, OpenAI a l’intention “de faire en sorte que certaines futures IA fassent nos devoirs d’alignement de l’IA” en cas de débordement. Quant à DeepMind, autre géant du secteur, il n’a aucun plan.

Malgré les progrès des recherches, nous ignorons encore beaucoup de choses sur l’intelligence artificielle. Malgré une pause de six mois, comme le demandent bien des experts (dont Elon Musk), cela ne sera pas suffisant pour se préparer aux risques liés au développement trop rapide de l’IA. Selon Eliezer Yudkowsky, il faudrait au moins trois décennies pour résoudre le problème de sécurité d’une IA surhumaine. Reste à voir si les géants du secteur sauront se montrer patients… Pour le bien de l’Humanité.

📍 Pour ne manquer aucune actualité de Presse-citron, suivez-nous sur Google Actualités et WhatsApp.

Newsletter 🍋

Abonnez-vous, et recevez chaque matin un résumé de l’actu tech

1 commentaire
1 commentaire
Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *