Lors du raid spectaculaire du président vénézuélien Nicolás Maduro, le 3 janvier 2026, le Pentagone a utilisé l’IA Claude de l’entreprise Anthropic, a déclaré le Wall Street Journal, citant des sources proches du dossier. L’opération militaire majeure, appelée « Absolute Resolve », n’aurait pas seulement l’occasion pour les États-Unis de mettre en œuvre la puissance de son groupe d’élite « Delta Force ». La mission aurait aussi permis de tester un nouveau dispositif épaulé par l’IA, de la planification à la conduite de l’opération.
Pour mettre en lumière cette utilisation sur un dossier classé secret défense, le Wall Street Journal explique qu’un employé d’Anthropic aurait discuté avec son homologue de chez Palantir, une entreprise de logiciels américaine spécialisée dans l’analyse de données, et partenaire de longue date avec le Pentagone. C’est avec cet échange que l’usage de l’IA Claude aurait été confirmé dans l’opération militaire. Ni Anthropic ni le Pentagone n’ont toutefois confirmé ces dires : un porte-parole de la société déclarait que « nous ne pouvons pas commenter l’utilisation de Claude, ni d’aucun autre modèle d’IA, dans le cadre d’une opération spécifique, classifiée ou non ».
Anthropic ne veut pas que son IA soit utilisée pour des actes de violence
L’opération qui a fait 83 morts et qui a nécessité des centaines d’avions et le tir de nombreux missiles est problématique pour Anthropic, qui demande à ce que ses modèles d’IA ne soient pas utilisés pour des actes de violence, le développement d’armes et des opérations de surveillance. La société derrière Claude sait que ces domaines sont particulièrement sensibles et pourraient entraver son image et ses contrats dans le domaine public – des sociétés comme les Français de Capgemini en ont récemment payé les frais. Palantir possède lui aussi une image particulièrement controversée, pour son rôle dans la surveillance de masse, notamment via son logiciel Gotham.
Le porte-parole d’Anthropic ajoutait que « toute utilisation de Claude, que ce soit dans le secteur privé ou au sein d’un gouvernement, doit se conformer à nos politiques d’utilisation, qui encadrent son déploiement. Nous collaborons étroitement avec nos partenaires pour garantir cette conformité. »
Ce rappel arrive à un moment clé, où les relations entre le Pentagone et Anthropic seraient devenues compliquées. Selon Axios et le Wall Street Journal, la Défense américaine menacerait Anthropic de mettre fin à son contrat de 200 millions de dollars face au refus de la société à lever certaines restrictions concernant l’usage de ses modèles. Anthropic ferait de la résistance pour autoriser le Pentagone à utiliser ses technologies pour « toutes les finalités légales », qui comprendrait aussi le développement d’armes, la collecte de renseignements et des opérations sur le champ de bataille.
L’excuse de la « sécurité nationale »
En refusant de tels usages, que resterait-il au Pentagone dans son contrat avec Anthropic ? Selon le porte-parole cité par le Wall Street Journal, « Anthropic s’engage à utiliser l’IA de pointe pour soutenir la sécurité nationale américaine ». Un message qui laisse beaucoup de place à l’interprétation de ce qui relève de la sécurité nationale ou non, et des moyens engagés.
Plus d’un mois après la capture de Nicolás Maduro, les États-Unis sont désormais tournés vers l’Iran où l’échec des négociations sur le programme nucléaire pourrait mener à une nouvelle intervention militaire de taille, puisque plus d’un tiers de la flotte de la Navy a été positionnée en vue d’être utilisée sur le théâtre. Le Pentagone continuera coûte que coûte que motiver les sociétés d’IA à développer des technologies à des fins militaires (y compris dans des drones), et ces mêmes sociétés ne pourront pas refuser très longtemps de signer de précieux contrats à l’heure où leurs capacités dépendent fortement d’injections de capitaux massives.
📍 Pour ne manquer aucune actualité de Presse-citron, suivez-nous sur Google Actualités et WhatsApp.