Passer au contenu

OpenAI donne son feu vert à l’usage “militaire” de l’IA, mais dans des scénarios limités

OpenAI, créateur de ChatGPT, modifie sa politique pour autoriser l’utilisation de ses technologies dans l’industrie de la défense. Mais il est toujours interdit de créer des armes ou des outils de surveillance avec celles-ci.

Depuis plus d’un an, OpenAI révolutionne le monde de la tech avec son intelligence artificielle ChatGPT. Depuis la création de ce chatbot, les usages se sont multipliés. En effet, en plus de proposer ses modèles sur le site web et sur l’application ChatGPT, OpenAI propose également des outils qui permettent aux développeurs d’intégrer cette technologie sur leurs apps. Parmi les grands acteurs de la tech qui s’appuient sur l’IA d’OpenAI, il y a Microsoft, ou encore le réseau social Snapchat.

Mais les technologies d’OpenAI intéressent également le secteur de la défense. Et pour s’adapter à cette clientèle particulière, celui-ci a récemment modifié ses règles. Comme l’expliquent nos confrères de TechCrunch, OpenAI a discrètement retiré de ces règles la partie qui interdisait les usages militaires et les usages pour la guerre. Évidemment, un tel changement a de quoi inquiéter. Cependant, dans un communiqué relayé par TechCrunch, le créateur de ChatGPT précise aussi que les usages militaires de ses technologies seront limités à ces usages spécifiques.

Pas d’armes ni de surveillances

Selon TechCrunch, OpenAI a confirmé la modification de ses règles. Et le langage utilisé a bien été modifié pour que ses technologies puissent être exploitées par des clients dans le domaine de la défense. Néanmoins, celui-ci a aussi précisé que tous les usages de l’IA, dans le domaine militaire, ne seront pas approuvés. En particulier, ChatGPT et les autres outils développés par OpenAI ne serviront pas à créer des armes ni des logiciels de surveillance.

“Notre politique ne permet pas que nos outils soient utilisés pour nuire à des personnes, développer des armes, pour surveiller les communications, ou pour blesser autrui ou détruire des biens”, assure le créateur de ChatGPT. “Il existe cependant des cas d’utilisation en matière de sécurité nationale qui correspondent à notre mission. Par exemple, nous travaillons déjà avec la DARPA (ndlr, l’agence américaine pour les projets de recherche avancée de défense) pour stimuler la création de nouveaux outils de cybersécurité afin de sécuriser les logiciels open source dont dépendent les infrastructures critiques et l’industrie. Il n’était pas clair si ces cas d’utilisation bénéfiques auraient été autorisés sous la rubrique « militaire » dans nos politiques précédentes. L’objectif de notre mise à jour de politique est donc d’apporter de la clarté et de permettre d’avoir ces discussions.”

  • OpenAI a discrètement modifié sa politique, pour retirer l’interdiction de l’utilisation de ses technologies dans le domaine militaire
  • Le créateur de ChatGPT s’ouvre désormais aux clients qui travaillent dans le domaine de la défense, mais dans des scénarios limités
  • Il est toujours interdit d’utiliser ChatGPT ou ses autres modèles pour créer des armes ou des outils de surveillance
  • OpenAI justifie ce changement par des “des cas d’utilisation en matière de sécurité nationale” qui correspondent à sa mission

📍 Pour ne manquer aucune actualité de Presse-citron, suivez-nous sur Google Actualités et WhatsApp.

Newsletter 🍋

Abonnez-vous, et recevez chaque matin un résumé de l’actu tech