- OpenAI, la société qui développe ChatGPT, reconnaît les imperfections de son IA ainsi que des erreurs signalées par les internautes
- Celle-ci prévoit des améliorations dans le processus d’affinage de l’IADe son côté, Google n’a pas encore sorti son IA Bard, mais continue d’améliorer la qualité des réponses grâce aux tests
- Mais OpenAI souhaite aussi faire des consultations, et proposer une fonctionnalité qui permettra à l’utilisateur de définir lui-même certaines limites de ChatGPT
Sam Altman, le PDG d’OpenAI, avait déjà prévenu que ChatGPT est imparfait. Mais plus l’IA est utilisée, plus ses limitations deviennent évidentes. Dans un billet de blog, l’entreprise fait une sorte de bilan de la situation actuelle, tout en expliquant comment ChatGPT est entraîné, et en proposant des pistes d’améliorations. Tout d’abord, l’entreprise reconnaît les problèmes soulevés par les internautes.
“Depuis le lancement de ChatGPT, les utilisateurs ont partagé des contenus qu’ils considèrent comme politiquement biaisés, offensants ou autrement répréhensibles. Dans de nombreux cas, nous pensons que les inquiétudes soulevées ont été fondées et ont révélé de réelles limites de nos systèmes auxquelles nous voulons remédier”, lit-on dans la publication.
Dans un précédent article, nous avons évoqué les réponses malaisantes que la version de ChatGPT sur Bing a données à des internautes. Et Elon Musk, cofondateur d’OpenAI, semblait très enthousiaste au lancement de ChatGPT. Aujourd’hui, il est plus réservé, estimant que cette IA aurait besoin d’être améliorée, tout en reconnaissant les dangers potentiels (mais aussi les avantages de la technologie), ainsi que la nécessité d’une régulation de l’intelligence artificielle.
Might need a bit more polish …https://t.co/rGYCxoBVeA
— Elon Musk (@elonmusk) February 15, 2023
Comment OpenAI veut corriger ChatGPT ?
Dans sa publication, la société qui a développé ChatGPT explique de manière relativement simple comment cette IA est entraînée. Tout d’abord, il y a une phase de préentraînement durant laquelle ChatGPT est alimenté avec un large jeu de données provenant d’internet. Ensuite vient la phase d’affinage, durant laquelle des examinateurs humains génèrent un autre jeu de données répondant à des règles plus strictes. Mais le problème est qu’OpenAI n’est pas en mesure d’anticiper toutes les questions posées par les utilisateurs.

Les examinateurs ne fournissent donc que des exemples. Puis, l’IA essaie de “généraliser” à partir de ces exemples. Les consignes données à ces examinateurs sont variées, mais OpenAI explique qu’il interdit par exemple de répondre à des questions liées à des activités illégales, ainsi que les prises de position sur les sujets controversés. Malheureusement, ce système n’est pas parfait.
“Dans certains cas, ChatGPT refuse actuellement des sorties qu’il ne devrait pas, et dans certains cas, il ne refuse pas quand il le devrait. Nous pensons qu’une amélioration à ces deux égards est possible”, admet OpenAI. Celui-ci affirme qu’il investit en recherche pour réduire ces erreurs, ainsi que les biais. En même temps, l’entreprise continue d’exploiter les retours envoyés par ses utilisateurs.
Une nouvelle organisation de ChatGPT
L’une des nouveautés qui pourraient apparaître sur ChatGPT est la possibilité pour l’utilisateur de personnaliser l’IA en fonction de sa sensibilité. En substance, OpenAI estime que cela ne devrait pas être son rôle de déterminer les limites de ChatGPT. En même temps, l’entreprise devra quand même limiter cette possibilité de personnalisation du comportement de l’IA, afin d’éviter les utilisations malveillantes.
En même temps, OpenAI fera des consultations auprès des personnes utilisant son IA, ou les personnes affectées. Des décisions plus “collectives” sur la manière dont ChatGPT est développé permettraient d’éviter une concentration de pouvoirs. Par exemple, l’entreprise souhaite avoir des avis sur l’impact de l’intelligence artificielle dans l’éducation.
L’image ci-dessous explique assez bien l’idée d’OpenAI. Par rapport à la méthode actuelle, de nouvelles étapes sont ajoutées. Après avoir été entraîné avec de vastes quantités de données, puis affiné par ses examinateurs (avec un process amélioré), ChatGPT sera aussi modifié en tenant compte des consultations (par exemple, des retours d’écoles et d’universités). Ensuite, pour définir certaines limites, l’utilisateur pourra également personnaliser l’IA. On aurait donc plus ou moins une version de ChatGPT différente pour chaque individu.

En tout cas, on comprend mieux pourquoi Google ne sort pas encore son IA Bard. La firme de Mountain View prévoit d’ajouter ce chatbot à son moteur de recherche. Mais pour le moment, Bard est encore testé par les employés de Google et quelques testeurs externes, afin d’améliorer la qualité des réponses.
📍 Pour ne manquer aucune actualité de Presse-citron, suivez-nous sur Google Actualités et WhatsApp.