Passer au contenu

Gemini 3 Pro : des chercheurs auraient déjà poussé la meilleure IA du marché à divulguer des informations très dangereuses

Alors que l’IA devient plus performante, les mesures de sécurité qui sont supposées empêcher les usages malveillants sont observées de près. Malheureusement, celles-ci ne sont généralement pas efficaces à 100 %.

Aucune technologie n’est bonne ni mauvaise, tout dépend de l’usage qu’on en fait. En ce qui concerne l’intelligence artificielle, celle-ci permet d’avoir un important accroissement de la productivité. Mais, entre de mauvaises mains, et si elle était entièrement débridée, elle pourrait à des fins malveillantes. Et, pour empêcher ces usages détournés de leur technologie, les laboratoires d’IA mettent en place des mesures de sécurité qui empêchent les utilisateurs d’avoir des réponses à des questions interdites. Cependant, de nombreux chercheurs ont déjà démontré que ces mesures ne sont pas efficaces à 100 %.

Et, malheureusement, cela serait aussi valable pour Gemini 3 Pro, qui est aujourd’hui considéré comme la meilleure IA du marché. En effet, selon un article de Maeil Business Newspaper, Aim Intelligence, un groupe de chercheurs coréens, serait déjà parvenu à jalbreaker Gemini 3 Pro afin de pousser l’IA à répondre à des questions qui sont normalement bloquées. En contournant les mesures de sécurité, les chercheurs auraient obtenu des informations sur la création du virus de la variole, avec des résultats détaillés qui seraient considérés comme viables.

Un problème qui concerne tous les modèles récents

En utilisant la fonction de génération de code, les chercheurs auraient également poussé Gemini à générer le code d’un site web qui fournit des informations dangereuses sur des choses telles que la fabrication de gaz sarin ou d’explosifs. Alors que l’IA est de plus en plus performante, les mesures de sécurité sont plus suivies de près par les chercheurs.

Et, malheureusement, il semblerait que ces mesures n’évoluent pas assez vite, tandis que l’IA gagne en performances. D’ailleurs, cité par Maeil Business Newspaper, les chercheurs d’Aim Intelligence auraient expliqué : “C’est un problème commun à tous les modèles. Il sera important de bien comprendre les points faibles de chaque modèle et de les aligner sur les politiques de service.”

Récemment, nous avons évoqué les travaux de chercheurs qui ont découvert une façon de contourner les mesures de sécurité des chatbots IA en utilisant des poèmes. Et, cette année, la société Anthropic a signalé une tentative, par un acteur malveillant, d’utiliser ses produits pour réaliser des attaques informatiques hautement automatisées.

  • Gemini 3 Pro est aujourd’hui considéré comme la meilleure IA du marché
  • Des chercheurs coréens affirment qu’ils ont déjà réussi à jailbreaker ce modèle pour pousser celui-ci à divulguer des informations dangereuses
  • L’IA évolue rapidement, mais les mesures de sécurité seraient un peu à la traîne et cela concernerait tous les modèles

📍 Pour ne manquer aucune actualité de Presse-citron, suivez-nous sur Google Actualités et WhatsApp.

Youtube
Youtube
Par : Google LLC
4.2 / 5
M174.7 avis