On ne présente plus la célèbre OpenAI, entreprise pionnière de l’IA grand public qui a conçu le chatbot ChatGPT, l’IA générative d’image DALL-E ou encore Sora, pour la vidéo. Celle-ci s’est retrouvée sous le feu des projecteurs cette semaine en raison de deux incidents de sécurité assez préoccupants. Les systèmes de la société ne sont pas invulnérables, loin de là.
Une faille sur l’application Mac de ChatGPT
Cette semaine, une faille de sécurité inquiétante a été mise au jour dans l’application Mac de ChatGPT par Pedro José Pereira Vieito, un ingénieur et développeur Swift. Ce dernier a constaté avec stupeur que les échanges des utilisateurs étaient enregistrés localement sans aucun chiffrement, en clair. Cette application, uniquement accessible via le site d’OpenAI et non sur l’App Store officiel, échappe ainsi aux protocoles de sécurité stricts imposés par Apple, notamment le sandboxing. Face à cette révélation, OpenAI a rapidement déployé une mise à jour intégrant le chiffrement des conversations stockées en local.
Pour les néophytes, le sandboxing est une technique de sécurité visant à cloisonner les applications, limitant ainsi la propagation potentielle de failles. L’enregistrement de fichiers en clair expose des informations potentiellement sensibles à un accès non autorisé par d’autres logiciels ou programmes malveillants. Cette négligence flagrante d’OpenAI dans la protection des données personnelles soulève de sérieuses inquiétudes quant à la confidentialité et la sécurité des utilisateurs de ses outils.
Une attaque interne révélatrice de vulnérabilités plus larges
La seconde faille, bien qu’ayant eu lieu en 2023, continue de faire sentir ses répercussions aujourd’hui. Au printemps dernier, un hacker est parvenu à s’infiltrer dans les systèmes de messagerie interne d’OpenAI, s’emparant ainsi d’informations confidentielles sur l’entreprise.
D’après le New York Times, Leopold Aschenbrenner (responsable de programme technique chez OpenAI), a alerté le conseil d’administration sur des problèmes de sécurité, soulignant que cette intrusion mettait en lumière des vulnérabilités internes potentiellement exploitables par des acteurs étrangers malveillants.
Aschenbrenner affirme avoir été congédié pour avoir divulgué des informations sur OpenAI et exprimé des inquiétudes quant à la sécurité de l’entreprise. Un porte-parole de la société a déclaré au Times que : « Bien que nous partagions son engagement à développer une intelligence artificielle générale (IAG) sûr, nous sommes en désaccord avec de nombreuses affirmations qu’il a faites depuis concernant notre travail ». Il a ajouté également que son départ de la société n’était en rien lié avec son rôle de lanceur d’alerte.
On peut en douter ? Oui, certainement. OpenAI n’est pas l’entreprise la plus transparente qui soit et a souvent fait l’objet de critiques concernant le manque de clarté autour de certains aspects de ses opérations et de ses technologies. Le grand public n’est que très rarement au fait de ses processus de développement et de ses décisions stratégiques.
- Deux failles de sécurité ont été découvertes cette semaine chez OpenAI.
- Un ingénieur a découvert une faille sur l’application ChatGPT sur Mac.
- En 2023, un hacker s’est introduit dans les systèmes internes d’OpenAI et a volé des informations confidentielles.
📍 Pour ne manquer aucune actualité de Presse-citron, suivez-nous sur Google Actualités et WhatsApp.