Passer au contenu

L’IA peut faire des dégâts catastrophiques : l’alerte de l’ancien patron de Google

Si nous n’agissons pas d’ici 5 ans, les conséquences pourraient être dramatiques, selon Eric Schmidt.

Il n’en est pas à son coup d’essai, mais Eric Schmidt, l’ancien PDG de Google est très inquiet au sujet de l’IA. Celui qui officie en tant que président de la Commission nationale de sécurité sur l’intelligence artificielle aux États-Unis, a ainsi pris la parole lors d’une conférence organisée par le média américain Axios récemment.

Il compare même cette technologie à la création de la bombe atomique en 1945 : “Après Nagasaki et Hiroshima, il a fallu 18 ans pour parvenir à un traité sur l’interdiction des essais et d’autres aspects. Nous n’avons pas ce genre de temps aujourd’hui.”

Une IA qui mène l’humanité à sa perte ?

Le dirigeant évoque un scénario sombre digne d’un film de science-fiction “où l’ordinateur peut commencer à prendre ses propres décisions pour faire des choses. S’il est capable d’accéder à des systèmes d’armes ou d’atteindre d’autres capacités terrifiantes, les machines pourraient nous mentir à nous, les humains, à ce sujet. “

D’après lui, ce cauchemar peut être évité. Comment ? En mettant en place une organisation semblable au Groupe d’experts intergouvernemental sur l’évolution du climat (GIEC) des Nations unies. Cette organisation viendrait “fournir des informations précises aux décideurs politiques” pour les aider à encadrer l’IA.

À noter qu’Eric Schmidt n’est pas le seul spécialiste à s’inquiéter des dangers de ces technologies. Nous vous parlions notamment cette année de Mo Gawdat, ancien dirigeant de Google, qui a dit craindre que l’IA crée ses propres “machines tueuses”.

De son côté, Sam Altman, le PDG d’OpenAI, a aussi fait part de ses craintes : “l’une de mes plus grandes peurs, c’est que nous, cette industrie, cette technologie causions des dommages significatifs à la société. Si cette technologie va dans le mauvais sens, elle peut aller assez loin. (…) Et nous voulons travailler avec le gouvernement pour empêcher que cela ne se produise.”

Tous les experts de l’IA ne partagent pas ce point de vue. Par exemple, le Français Yann LeCun de chez Meta a battu en brèche ces doutes chez nos confrères du Financial Times : “Le débat sur le risque existentiel est très prématuré tant que nous n’aurons pas conçu un système capable de rivaliser avec un chat en termes de capacités d’apprentissage. Ce qui n’est pas le cas pour l’instant”.

Que pensez-vous de ce débat sur les dangers de l’IA ? N’hésitez pas à partager vos espoirs, vos doutes ou vos craintes dans les commentaires.

📍 Pour ne manquer aucune actualité de Presse-citron, suivez-nous sur Google Actualités et WhatsApp.

Youtube
Youtube
Par : Google LLC
4.2 / 5
M174.6 avis
1 commentaire
1 commentaire
  1. > Yann LeCun de chez Meta a battu en brèche ces doutes chez nos confrères du Financial Times : “Le débat sur le risque existentiel est très prématuré tant que nous n’aurons pas conçu un système capable de rivaliser avec un chat en termes de capacités d’apprentissage. Ce qui n’est pas le cas pour l’instant”.

    Personne ne dit que c’est le cas au présent, mais qu’il y a un potentiel pour que ce soit le cas dans un avenir quand bien même indéterminé.
    Avec des commentaires tels que celui de ce Yann LeCun on laisserait filer le présent et la prévention pour attendre demain et la guérison, à l’instar du déploiement industriel face à la crise climatique en marche, elle, déjà. Avancer coûte que coûte pour réparer ensuite est un raisonnement plutôt américain, que ce soit un Français qui s’y perde est troublant.

Les commentaires sont fermés.