Passer au contenu

Pour l’ex-PDG de Google, l’IA peut “blesser ou tuer de nombreuses personnes”

L’ex-PDG de Google a tenu un discours alarmiste sur l’IA lors d’un sommet organisé par le Wall Street Journal.

  • L’ancien PDG de Google, Eric Schmidt, a récemment mis en garde contre les dangers potentiels de l’IA, la qualifiant de”risque existentiel”
  • Il a exprimé ses préoccupations sur les conséquences possibles de la désinformation, de la perte massive d’emplois et des manipulations de la biologie
  • Une inquiétude que ne partage pas l’actuel PDG de Google, Sundar Pichai, ni le reste du secteur

À l’occasion du sommet du Conseil des PDG du Wall Street Journal à Londres, l’ancien PDG de Google, Eric Schmidt, a déclaré que l’intelligence artificielle (IA) représentait un “risque existentiel” pour l’humanité. Il a affirmé que l’absence de réglementation de l’IA pourrait conduire à des blessures voire la mort de “nombreuses, nombreuses, nombreuses, nombreuses personnes”.

Eric Schmidt a mis en garde contre une possible “exploitation zero-day” dans les problèmes de cybersécurité et la découverte de nouvelles formes de biologie par l’IA, qui pourraient survenir non pas aujourd’hui, mais “raisonnablement bientôt”.

Bien que ces scénarios soient de la fiction digne de Terminator, Eric Schmidt a insisté sur le fait que leur réalisation est probable. “Et lorsque cela se produira, nous voulons être prêts à savoir comment faire en sorte que ces choses ne soient pas mal utilisées par des personnes mal intentionnées”, a-t-il ajouté.

Lorsqu’on lui demande comment réglementer l’IA, Eric Schmidt se montre plutôt pessimiste. Il ne croit pas qu’un nouvel organisme de régulation sera mis en place aux États-Unis pour traiter spécifiquement de l’IA, ce qui pourrait pourtant être une solution viable à la croissance rapide de cette technologie. Eric Schmidt ne propose aucune solution potentielle à ces problèmes, affirmant plutôt qu’ils constituent “une question plus large pour la société”.

L’industrie prudente mais pas alarmiste

Le PDG actuel de Google, Sundar Pichai, ne partage pas le même niveau d’alarme. S’il est d’avis que l’IA a besoin de réglementation (il a même demandé directement une régulation gouvernementale de Google et de toute autre entreprise travaillant avec l’IA), il continue d’aller de l’avant avec le déploiement d’outils basés sur l’IA pour les consommateurs dans les produits Google, en témoigne la keynote de Google I/O 2023.

La position d’Eric Schmidt sur l’IA contraste fortement avec celle de nombreuses autres figures de l’industrie technologique, plutôt optimistes quant à l’avenir de l’IA. Cependant, ses préoccupations reflètent une prise de conscience croissante des risques potentiels associés à l’IA, notamment en ce qui concerne la confidentialité des données, la cybersécurité et l’impact sur l’emploi.

Il est indéniable que l’IA a le potentiel de transformer de nombreux aspects de la vie telle que nous la connaissons. Elle peut améliorer l’efficacité des entreprises, favoriser l’innovation dans des domaines allant de la santé à l’éducation, et même aider à résoudre des problèmes mondiaux complexes.

Mais sans réglementation appropriée, cette technologie pourrait également être utilisée de manière néfaste, avec des conséquences potentiellement désastreuses pour l’humanité.

La vision d’Eric Schmidt sur l’avenir de l’IA souligne donc la nécessité d’un débat public plus large sur la manière dont nous voulons que l’IA soit utilisée et réglementée. Alors que l’IA continue de se développer à un rythme rapide, il est essentiel que nous prenions le temps de considérer attentivement les implications éthiques, sociales et politiques de cette technologie révolutionnaire.

C’est en tout cas ce que pense Sam Altman, créateur de ChatGPT. En tournée mondiale, le PDG d’OpenAI plaide pour une régulation de l’IA afin d’éviter les dérives d’une technologie surpuissante.

📍 Pour ne manquer aucune actualité de Presse-citron, suivez-nous sur Google Actualités et WhatsApp.

Youtube
Youtube
Par : Google LLC
4.3 / 5
158,6 M avis
4 commentaires
4 commentaires
  1. Y’a un coté assez cool de voir les riches et puissants commencer a flipper sur l’IA.
    Ils commencent à se rendre compte que leur model productiviste est en train de créer un monstre qui va devenir dangereux pour eux.
    Qu’ils s’inquiètent de la destruction des emplois … leur assise sur les autres humains va devenir bancale si l’IA bosse à la place de la “plèbe”.
    Et comment faire pour détourner les milliards d’impots si une IA peut les retrouver en quelques secondes.
    Ils s’inquiètent des IA qui seraient utilisées/programmées par des personnes mal intentionnées, il faudrait qu’elles soient programmées selon leur propre vision du monde, c’est surtout ça qu’ils veulent dire.

    Peut-être que l’IA engendrera le chaos, mais ils ont surtout peur d’être pris dedans, pas que nous soyons tous pris dedans.

    1. Vu ce qu’en a dit Stephen Hawking – qui ne me semble pas rentrer dans la catégorie susmentionnée – en son temps, pas complètement convaincu par cette analyse. Production chatGPT ? :p

      1. Ce qu’avait dit Hawking n’est en rien incompatible avec ce que j’ai écrit.
        Il avait dit que l’humain, a cause de ses limites biologique, ne pourrait peut-être pas suivre l’IA (on appelle ça la singularité technologique) et que ça pourrait détruire l’humanité.
        Donc faire peur aux puissants qui vont perdre leur pouvoir.
        Après, que ce soit les pessimistes comme Hawking ou les optimistes, tout le monde fait des suppositions, on a aucune idée de ce que va changer l’IA dans le monde et de quelle manière.

        Perso j’ai assez hate de voir ça, peut-être ça améliorera notre condition humaine, peut-être ça l’empirera, peut-être ça détruira l’humanité … ce qui est certain c’est que ça changera beaucoup de chose et que personne ne peut dire quoi exactement.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *