Passer au contenu

Les dangers du “Shadow AI” : voici pourquoi vous devriez réfléchir à deux fois avant d’utiliser une IA au travail

Microsoft alerte sur le “Shadow AI” ou l’utilisation non contrôlée d’agents d’intelligence artificielle au sein des entreprises. En effet, si les agents IA apportent un gain de productivité, ils exposent aussi à de nouveaux risques de sécurité qui nécessitent des mesures particulières.

Alors que les modèles de langage comme ceux de ChatGPT ou de Gemini ont déjà permis aux travailleurs du monde entier de gagner en productivité, un nouveau type d’IA, encore plus utile, se déploie petit à petit. Il s’agit des agents et, contrairement aux simples IA génératives, les agents sont capables d’accomplir des tâches à la place de leur utilisateur, en prenant le contrôle d’un ordinateur, d’une application ou d’un navigateur web. Néanmoins, avant d’utiliser un agent IA dans le cadre de votre travail, vous devez absolument vous demander si cela n’introduit pas des risques trop importants en matière de sécurité.

Dans un récent rapport, Microsoft alerte sur les dangers du “Shadow AI” ou l’utilisation de l’intelligence artificielle par les employés d’une entreprise sans le contrôle de son équipe informatique. En effet, si les agents IA apportent un gain de productivité incontestable, ils exposent aussi à de nouveaux risques en matière de sécurité. De ce fait, l’utilisation des agents doit être accompagnée de mesures de sécurité, afin de mitiger ces risques.

“Dans le cadre d’une étude indépendante et sécurisée menée par la Red Team IA de Microsoft, les chercheurs ont montré comment les agents pouvaient être induits en erreur par des éléments d’interface trompeurs, par exemple en suivant des instructions malveillantes intégrées dans des contenus courants. La Red Team a également découvert comment le raisonnement des agents pouvait être subtilement détourné par une manipulation du cadre de la tâche”, indique le rapport de Microsoft. La firme indique aussi avoir découvert une campagne qui consiste à “empoisonner” la mémoire des IA afin d’influencer ses futures recommandations en introduisant des informations biaisées.

Les agents d’IA se déploient plus vite qu’on le pense

Pourtant, si l’utilisation d’un agent d’IA introduit de nouveaux risques, elle est de plus en plus courante. Et si cela peut être encadré au sein d’une entreprise, ce n’est pas toujours le cas. Microsoft a commandé une étude auprès de 1 700 professionnels de la sécurité des données qui a révélé que 29 % des employés ont utilisé un agent IA non autorisé pour accomplir des tâches professionnelles.

Une autre étude, la Microsoft Data Security Index 2026, indique que seules 47 % des entreprises ont mis en place des contrôles pour l’utilisation des agents d’IA.

  • Les agents d’IA sont capables de rendre les travailleurs plus productifs, mais ils peuvent aussi introduire de nouveaux risques pour les entreprises
  • En effet, ces agents peuvent être ciblés par de nouveaux types d’attaque et, lorsque leur utilisation n’est pas contrôlée ni accompagnée de mesures particulières, ils peuvent devenir une vulnérabilité
  • Microsoft affirme pourtant que de nombreux employés utilisent des agents d’IA non autorisés

📍 Pour ne manquer aucune actualité de Presse-citron, suivez-nous sur Google Actualités et WhatsApp.

Newsletter 🍋

Abonnez-vous, et recevez chaque matin un résumé de l’actu tech