- Alors que ChatGPT et GPT-4 sont encore des technologies récentes, on évoque déjà une IA encore plus puissante : GPT-5
- Mais OpenAI n’est pas encore pressé de passer à la vitesse supérieure
- Selon Sam Altman, le développement de GPT-5 n’a pas encore commencé
Alors que ChatGPT et sa version améliorée, GPT-4, inquiètent (et fascinent) déjà, les médias commencent à évoquer la prochaine version de l’IA qui sera encore plus puissante et qui devrait être appelée GPT-5. Mais la bonne nouvelle, pour ceux qui redoutent l’arrivée de l’arrivée de cette intelligence artificielle encore plus performante, c’est que celle-ci est encore loin d’être prête. En effet, OpenAI, la société qui développe ChatGPT et GPT-4, n’est pas du tout pressée de passer à la vitesse supérieure.
Cela a été réitéré par Sam Altman, le patron de l’entreprise, lors d’une interview avec le média indien Economic Times. Comme le rapporte TechCrunch, lors de cette interview, Sam Altman a indiqué qu’OpenAI a encore beaucoup de choses à faire avant de démarrer ce nouveau modèle. “Nous travaillons sur les nouvelles idées dont nous pensons avoir besoin pour cela, mais nous ne sommes certainement pas près de commencer”, a-t-il déclaré.
De quoi rassurer Elon Musk et ses cosignataires
Pour rappel, au mois de mars, une lettre demandant un moratoire sur la course à l’intelligence artificielle avait été demandée par plusieurs milliers de personnes, dont Elon Musk et Steve Wozniak. “Les systèmes d’IA dotés d’une intelligence humaine compétitive peuvent poser de graves risques pour la société et l’humanité, comme le montrent des recherches approfondies et reconnues par les meilleurs laboratoires d’IA”, lisait-on dans la lettre.
Concrètement, les signataires demandent l’arrêt du développement d’IA plus puissantes que GPT-4 (comme le futur GPT-5). Sam Altman a déjà réagi à la lettre. Celui-ci ne s’est pas réellement exprimé contre l’idée d’une pause. Mais il a cependant indiqué que la lettre manque de nuances techniques, sur les raisons pour lesquelles une pause est nécessaire.
D’ailleurs, le PDG de Sam Altman n’a jamais nié l’existence des risques liés au développement d’IA comme ChatGPT ou GPT-4. Preuve en est, il fait partie des signataires d’une déclaration comparant les risques de l’IA à ceux d’une pandémie, ou d’une guerre nucléaire.
“L’atténuation du risque d’extinction de l’IA devrait être une priorité mondiale aux côtés d’autres risques à l’échelle de la société tels que les pandémies et la guerre nucléaire”, peut-on lire dans cette déclaration, qui a aussi été signée par des employés de Google et de Microsoft.
Vers une régulation de l’IA
Une déclaration qui sonne comme un appel à ce que l’IA soit régulée. D’ailleurs, lors de son interview avec l’Economic Times, Sam Altman a indiqué que cela ne devrait pas être le rôle d’OpenAI de décider des règles éthiques qui s’appliquent à l’IA. Pour rappel, la société a déjà publié un billet de blog suggérant comment l’IA pourrait être régulée.
Cette proposition inclut la création d’une organisation internationale similaire à celle qui supervise l’énergie nucléaire. “[…] nous aurons probablement besoin à terme de quelque chose comme une AIEA pour les efforts de superintelligence ; tout effort dépassant un certain seuil de capacité (ou de ressources comme le calcul) devra être soumis à une autorité internationale qui peut inspecter les systèmes, exiger des audits, tester la conformité aux normes de sécurité, imposer des restrictions sur les degrés de déploiement et les niveaux de sécurité, etc”, lit-on dans ce billet de blog.
📍 Pour ne manquer aucune actualité de Presse-citron, suivez-nous sur Google Actualités et WhatsApp.