Dans cette étude, plusieurs chatbots ont été testés pour leurs aptitudes à prendre des décisions dans des simulations de guerre. ChatGPT, par exemple, a systématiquement opté pour l’usage de la force nucléaire en justifiant son choix par des assertions du type : « Puisque nous l’avons, utilisons-la ! ». Des résultats qui donnent matière à réfléchir, alors même que l’armée américaine teste de manière très sérieuse des systèmes IA de ce type dans le but d’assister leur planification militaire.
Des sociétés spécialisées dans les LLMs (Large Language Model) ont même commencé à collaborer avec l’armée américaine. Devons-nous craindre l’arrivée imminente des chatbots dans les stratégies de guerre ? La réponse est plus nuancée qu’un simple oui ou non.
La militarisation de l’IA ?
Pour simuler ses planifications militaires, l’armée américaine a donc choisi d’ouvrir la porte à certains géants du secteur. Des sociétés comme Palantir Technologies ou Scale AI sont donc partie prenante de cette collaboration.
Même OpenAI, autrefois complètement opposé à toute forme d’utilisation de ses modèles de langage à des fins militaires, a changé d’avis en modifiant sa politique interne. Désormais, des cas d’utilisation seront possibles lorsqu’ils seront liés à la sécurité nationale.
Un porte-parole de l’entreprise a déclaré : « Notre politique interdit l’utilisation de nos outils pour nuire aux personnes, développer des armes, surveiller les communications, blesser autrui ou détruire des biens. Cependant, certains cas d’usage liés à la sécurité nationale sont en accord avec notre mission ». Un tournant plutôt radical !
L’expérience en question
Anka Reuel, chercheuse à l’Université Stanford en Californie, a souligné l’importance d’un tel virage : «Étant donné qu’OpenAI a récemment modifié ses conditions d’utilisation pour ne plus exclure les applications militaires et de guerre, il devient crucial de comprendre les conséquences de l’usage de tels modèles de langage avancés ».
Pour comprendre un peu mieux la logique de prise de décisions de ces IA, les chercheurs à l’origine de l’étude ont mis à l’épreuve différents modèles. Pour cela, ils les ont placés au cœur de scénarios fictifs, mettant en scène des conflits mondiaux. Trois scénarios étaient à l’étude : un scénario neutre sans conflit initial, une invasion et une cyberattaque. Ils leur ont laissé le choix dans un éventail de 27 actions différentes, allant de la négociation, en passant par l’imposition de restrictions commerciales jusqu’à l’attaque nucléaire.
Les résultats ont montré une nette tendance des IA à faire preuve d’une certaine agressivité lorsqu’ils en avaient la possibilité. Même des versions très avancées de certains modèles, comme GPT-3.5, GPT-4 ou encore d’autres modèles développés par Meta (Llama 2) ou Anthropic (Claude 2).
Dans la plupart des cas, les modèles ont privilégié l’usage de la force militaire et ont préféré une escalade du conflit de manière complètement imprévisible. Cela, même dans le scénario le plus neutre.
Les logiques déconcertantes derrière la prise de décision des IA
La préoccupation principale soulignée par l’étude résulte en la propension des IA à opter pour des stratégies très agressives, sans aucune explication logique. Lorsqu’on leur a demandé de fournir des justifications, certaines se sont vraiment révélées étonnantes.
La palme revient tout de même à ChatGPT 4. Les chercheurs ont utilisé la version de base ; aucun entraînement spécifique ou dispositifs de sécurité ne lui avait été fourni. C’est ce modèle qui s’est donc avéré être le plus imprévisible et le plus violent (comme expliqué dans l’introduction de cet article).
Pour expliquer ses choix, il a fourni parfois des explications parfaitement absurdes. Pour se justifier, il a même réécrit une fois les texte d’introduction du film Star Wars Épisode IV : Un nouvel espoir.
Soulignons tout de même que ces IA n’ont pas été pensées pour une telle utilisation, mais ces résultats interpellent tout de même. Edward Geist de la RAND Corporation (institution américaine de conseil et de recherche pour l’armée) le dit lui-même : « Ces modèles de langage à grande échelle ne sont pas une panacée pour les problèmes militaires ».
Malgré le bond technologique impressionnant de l’IA sur ces dernières années, ne nous leurrons pas. Leur confier des décisions aussi importantes que la gestion des conflits armés reste pour le moment bien trop risqué. Cette étude menée par les chercheurs prouvant l’inclination des LLM pour des solutions radicales prouve que la supervision humaine a encore de beaux jours devant elle. Les systèmes automatisés actuels ne sont pas encore capables de prendre des décisions de grande envergure. Il est en revanche possible d’imaginer que cette limite évolue un jour. Lorsque l’armée s’empare d’une technologie, les recherches sur celles-ci ont tout de même tendance à accélérer fortement, dopées par des fonds quasiment illimités. Ce fut le cas pour Internet dans le cadre du projet ARPANET par exemple.
- Des chercheurs ont mis à l’épreuve des modèles de chatbots pour évaluer leur capacité à prendre des décisions dans des simulations de guerre.
- La plupart se sont montrés très agressif durant l’expérience, préférant l’usage de la force à la diplomatie.
- L’étude montre que les IA actuelles ne sont pas encore capables de prendre des décisions aussi importantes, et font preuve d’un manque criant de logique dans leur choix.
📍 Pour ne manquer aucune actualité de Presse-citron, suivez-nous sur Google Actualités et WhatsApp.