Passer au contenu

Cette IA est si dangereuse qu’Anthropic est obligée de prévenir la Maison Blanche

Le nouveau modèle d’intelligence artificielle d’Anthropic, nommé Mythos, pourrait-il représenter un danger pour la sécurité du monde ? En tout cas, la société a tenu à avertir le gouvernement américain de ses capacités hors normes.

Ce n’est pas Skynet, mais c’est peut-être ce qui s’en rapproche le plus aujourd’hui. Le 7 avril, Anthropic a dévoilé son nouveau modèle d’intelligence artificielle : Mythos. Une IA si performante qu’elle pourrait mettre en danger la stabilité du monde. C’est en tout cas ce qu’affirme la société.

Jack Clark, le cofondateur d’Anthropic, a donné une interview à l’occasion du sommet Semafor World Economy de Washington DC. Il affirme que JD Vance, le vice-président américain, a organisé une réunion autour de la cybersécurité regroupant Dario Amodei (Anthropic), Elon Musk (xAI), Sundar Pichai (Google), Satya Nadella (Microsoft) ou encore Sam Altman (OpenAI). C’est à cette occasion qu’il a évoqué les dangers de son nouveau modèle d’IA. Il est aussi revenu sur le procès qui confronte sa société à la Maison Blanche. Anthropic avait été classée comme « risque pour la chaîne d’approvisionnement » par le gouvernement après avoir refusé de lui accorder le plein usage de son IA. La firme d’Amodei craint qu’elle soit utilisée pour de la surveillance de masse ou pour propulser des armes autonomes. Un « différend contractuel mineur », selon Clark, qui minimise la portée du conflit.

Qui a peur du grand Mythos ?

Jack Clark a tenu à avertir la Maison Blanche de son IA Mythos après que cette dernière a incité les grandes banques américaines à la tester (JP Morgan, Goldman Sachs, Bank of America…). Mais pourquoi une telle prudence ? Mythos, au départ conçu comme un modèle généraliste, a démontré un savoir-faire hors normes en matière de cybersécurité, dépassant les plus grands experts en la matière. Se hissant premier au classement de l’IA Security Institute, il s’est montré redoutable dans le repérage de failles critiques. Anthropic affirme ainsi avoir repéré des milliers de failles « zero-day » (jamais observées avant) dont les auteurs mêmes des logiciels n’avaient pas conscience. Elle précise même que ces faiblesses ont été colmatées sur des logiciels grand public et que certaines remontent à 10 ans, 20 ans, voire plus. Une IA extrêmement performante, donc, pour l’instant réservée aux partenaires du Project Glasswing, regroupant plusieurs géants de la tech comme Apple, Google ou encore Nvidia.

Le souci, c’est qu’une application qui peut repérer des failles peut également être utilisée pour les exploiter. C’est justement cela que craint Anthropic. Ainsi, Mythos pourrait représenter une menace potentielle si elle tombe entre les mains d’un État aux intentions malveillantes. C’est bien le message qu’a voulu porter Amodei à JD Vance.

L’analyse de Presse-citron

Anthropic a-t-elle raison de se méfier de sa propre IA ? Cette déclaration pourrait passer pour de la com’ bien sentie afin de vanter ses mérites. Pourtant, la firme semble sincère dans sa démarche. Il y a quelques mois, Dario Amodei avait publié un essai sur les dangers d’une IA trop puissante. Un danger qui, finalement, ne provient pas directement de la technologie, mais bien de la manière dont les humains l’utilisent. Selon lui, une IA ne peut pas être malveillante, puisqu’elle ne réfléchit tout simplement pas ainsi. L’homme, oui. C’est la mission des créateurs d’IA d’y placer des garde-fous, mais aussi de la distiller au compte-goutte à des clients de confiance, comme le fait Anthropic avec le Project Glasswing. Un système qui fonctionne… pour l’instant. Les IA de plus en plus performantes vont se démocratiser et envahir nos vies, et il arrivera bien un jour que l’une d’elle soit mal utilisée, que ce soit pour la production massive d’armes ou d’outils de propagande.

  • Anthropic a alerté la Maison Blanche sur les dangers potentiels de son modèle d’IA, Mythos.
  • Mythos possède des capacités jugées hors normes qui soulèvent des inquiétudes en matière de sécurité.
  • L’entreprise estime nécessaire de prévenir des personnalités politiques de ces risques.

📍 Pour ne manquer aucune actualité de Presse-citron, suivez-nous sur Google Actualités et WhatsApp.

Newsletter 🍋

Abonnez-vous, et recevez chaque matin un résumé de l’actu tech