Passer au contenu

L’intelligence artificielle peut maintenant prendre le contrôle intégral de votre PC

Un chatbot aux commandes de votre ordinateur : le rêve des technophiles et le cauchemar des utilisateurs soucieux de leur vie privée.

Anthropic, l’entreprise derrière le chatbot Claude 3 avait déjà frappé très fort en présentant son produit cette année. Disponible depuis le mois de mai sur le Vieux Continent, ce dernier est un monstre de puissance. Capable de résumer des thèses de 500 pages en quelques secondes, il excelle tout autant en mathématiques, en raisonnement logique, qu’en rédaction.

La firme vient de présenter son nouveau modèle, Claude 3.5 Sonnet et celui-ci est apte à prendre totalement les rênes de votre PC. C’est certes très impressionnant, mais ne nous mentons pas ; cela peut être tout de même un peu inquiétant sous certains aspects.

Un assistant numérique aux multiples talents

Contrairement aux autres chatbot, cela signifie que Claude dépasse désormais le cadre de la simple interaction textuelle entre l’homme et la machine. Doté de ses nouvelles capacités, il peut manipuler votre clavier, votre souris et utiliser l’ensemble des applications installées sur votre ordinateur.

Jared Kaplan, directeur scientifique d’Anthropic, a annoncé fièrement auprès de Wired : « Je pense que nous allons entrer dans une nouvelle ère où un modèle [NDLR : d’intelligence artificielle] pourra utiliser tous les outils que vous utilisez en tant qu’humain pour accomplir des tâches ».

Lors des démonstrations, Claude 3.5 a prouvé sa polyvalence en planifiant des voyages via navigateur web, en gérant des calendriers et a même réussi à créer des sites internet à partir zéro avec Visual Studio Code (éditeur de code source extensible développé par Microsoft pour Windows, Linux et macOS).

Des performances en demi-teinte

Si les dispositions de Claude restent tout de même plutôt prodigieuses, étant donné qu’aucun chatbot n’est encore capable d’exécuter ce genre de tâche, les tests ont révélé qu’il avait évidemment ses limites. À certains moments, il a omis des informations essentielles dans ses planifications et a peiné à accomplir certaines tâches basiques, notamment lorsqu’il s’agissait de pondre du code informatique.

Selon TechCrunch, lors d’un test qui consistait à effectuer des réservations de vols aériens et les modifier, Claude n’a réussi que moins de la moitié des missions qu’on lui a confiées. Il n’est donc pas encore tout-puissant, nous avons encore le temps de souffler. Mais pour combien de temps ? Est-il vraiment prudent de laisser une IA accéder librement à nos fichiers et naviguer sur notre ordinateur en ayant un contrôle total sur celui-ci ?

Face à ces interrogations, Anthropic adopte une position pragmatique : « Nous pensons qu’il est bien préférable de donner accès aux ordinateurs aux modèles d’aujourd’hui, plus limités et relativement plus sûrs. Cela signifie que nous pouvons commencer à observer et à apprendre d’éventuels problèmes qui pourraient survenir à ce niveau inférieur, tout en renforçant progressivement l’utilisation des ordinateurs et les mesures de sécurité ». Une approche qui fait néanmoins reposer la responsabilité des risques sur les utilisateurs eux-mêmes. Ces derniers sont-ils suffisamment informés des risques pour donner leur consentement ? Qui serait tenu responsable en cas de problème causé par Claude ? L’utilisateur, Antropic ou les deux ?

  • Claude 3.5 Sonnet, le nouveau chatbot d’Anthropic, peut désormais contrôler un PC en manipulant clavier, souris et applications.
  • Malgré ses capacités impressionnantes, des tests révèlent des lacunes dans l’exécution de certaines tâches basiques.
  • Anthropic prône une approche progressive pour limiter les risques d’une telle avancée.

📍 Pour ne manquer aucune actualité de Presse-citron, suivez-nous sur Google Actualités et WhatsApp.

Newsletter 🍋

Abonnez-vous, et recevez chaque matin un résumé de l’actu tech

2 commentaires
2 commentaires
  1. Ne plus avoir la main sur la machine m’effraie. Une IA prenant le contrôle d’un PC me procure le même effroi que de voler à bord d’un avion sans pilote humain. L’assistance est une chose, la délégation de pouvoir en est une autre. La porte de sortie, l’exit salutaire, je les conçois toujours comme la capacité à tout moment de reprendre la main sans quoi l’analogie avec un aller simple sans ticket de retour s’impose à mon esprit.

    “L’utilisateur, Antropic ou les deux ?” : L’utilisateur ou l’utilisateur assisté de Antropic, mais certainement pas Antropic seul, si par “seul” il s’agit de comprendre qu’en dernier ressort ce serait lui qui aurait l’autorité. Si je peux reprendre les commandes à tout instant, c’est autre chose, mais là encore j’y réfléchirais à deux fois avant de lâcher la bride à une IA et lui permettre ce faisant des immiscions dans la vie privée de mon ordi 🙂

    IA cantonnée à l’assistance, c’est la problématique actuelle, l’envisager maître à bord, à fortiori seul maître, c’est aborder un nouveau concept.

  2. Autant demander à un IA de faire des tache de fond a ma place sur mon ordi pendant que je ferai autre chose ne me dérange.
    Si elle peut gérer mon planning, créer un petit code qui simplifiera mon boulot, louer une voiture, etc… , clairement ce serait très pratique et un gain de temps appréciable.
    Par contre c’est vrai qu’il faut que le créateur de l’IA prenne ses responsabilité pour les problème que ça peut créer.
    Imaginons que cette IA donne toutes mes information à ce fameux prince du Niger qui m’envoi un mail pour me donner son immense fortune, je serai dégouté de finir sur la paille par sa faute et que l’on considère légalement que c’est de ma faute.
    Un peu comme les voitures autonomes qui ont un accident et dont les constructeurs automobile mobilisent tous leurs avocats pour faire en sorte que ça retombe sur le ‘conducteur” humain.

Les commentaires sont fermés.