Passer au contenu

Le papa de ChatGPT l’admet : l’intelligence artificielle “peut mal tourner”

Interrogé par le Sénat américaine, le PDG d’OpenAI lui-même n’a pas caché ses craintes quant aux risques de l’IA. Il suggère même une régulation du secteur.

  • Le PDG d’OpenAI, Sam Altman, a témoigné devant le Sénat américain sur les risques de l’IA générative
  • Il a appelé à une régulation gouvernementale des modèles d’IA les plus avancés
  • IBM a également plaidé pour une approche de régulation de précision

Si l’intelligence artificielle (IA) générative est capable de faire des merveilles, elle peut aussi déraper et causer des dommages à la société. Et c’est Sam Altman, papa de ChatGPT, qui le dit lui-même. Auditionné par le Sénat américain sur les risques des nouvelles intelligences artificielles, le patron d’OpenAI, société à l’origine de ChatGPT, a admis que l’IA pouvait “mal tourner”. 

Il a notamment confirmé que les IA peuvaient générer des réponses biaisées, erronées ou nuisibles, selon le contexte et les données utilisées pour les entraîner. Par exemple, ChatGPT pourrait suggérer à un utilisateur commettre un acte illégal ou propager des rumeurs infondées ou des théories du complot.

Le patron d’OpenAI appelle à une régulation de l’IA

Face à ces dangers potentiels, Sam Altman a appelé à une régulation gouvernementale des modèles d’IA les plus avancés. Il a proposé l’adoption de licences ou d’exigences de sécurité pour le développement et la diffusion de ces modèles. Il a également suggéré la création d’une agence gouvernementale qui pourrait accorder ou retirer ces licences en fonction du respect des normes de sécurité. Enfin, il a recommandé des audits indépendants par des experts qui pourraient vérifier la conformité des modèles aux seuils de sécurité établis.

Sam Altman s’est dit particulièrement préoccupé par l’impact de l’IA générative sur les élections, qui pourraient être influencées par du contenu créé par l’IA. “Étant donné que nous allons faire face à une élection l’année prochaine et que ces modèles s’améliorent, je pense que c’est un domaine de préoccupation significatif… Je pense qu’une certaine régulation serait assez sage sur ce sujet”, a-t-il déclaré. Et d’ajouter :

L’une de mes plus grandes peurs, c’est que nous, cette industrie, cette technologie, causions des dommages significatifs à la société. Si cette technologie va dans le mauvais sens, elle peut aller assez loin. (…) Et nous voulons travailler avec le gouvernement pour empêcher que cela ne se produise.

Sam Altman n’était pas le seul à témoigner devant le Sénat. Christina Montgomery, responsable de la confidentialité et de la confiance chez IBM, a également plaidé pour une approche de régulation de précision, qui consiste à établir des règles pour encadrer le déploiement de l’IA dans des cas d’utilisation spécifiques, et non à réguler la technologie elle-même. Elle a expliqué que le Congrès devrait définir clairement les risques de l’IA et imposer des règles différentes selon ces risques, avec les règles les plus fortes appliquées aux cas d’utilisation présentant les plus grandes menaces pour les personnes et la société.

📍 Pour ne manquer aucune actualité de Presse-citron, suivez-nous sur Google Actualités et WhatsApp.

Newsletter 🍋

Abonnez-vous, et recevez chaque matin un résumé de l’actu tech