- L’émergence de ChatGPT bouscule l’élaboration d’un texte européen sur l’IA
- Des questions restent posées sur cette régulation
- Le texte ne sera pas appliqué avant 2024
Depuis bientôt deux ans, l’Union européenne planche sur une directive de régulation de l’intelligence artificielle à l’échelle du continent. Et le moins que l’on puisse dire, c’est que l’arrivée de ChatGPT est en train de bousculer les discussions sur cette législation baptisée “AI Act”. Ce texte est l’objet d’un intense lobbying de la part des entreprises concernées, et l’on sait d’ailleurs que la législation de l’UE dans le domaine de la Tech sert souvent de modèle au reste du monde.
Interrogé par l’agence Reuters, Thierry Breton, commissaire européen chargé du marché intérieur, l’a d’ailleurs reconnu en début de mois : « Comme le montre ChatGPT, les solutions d’IA peuvent offrir de grandes opportunités aux entreprises et aux citoyens, mais peuvent aussi présenter des risques. C’est pourquoi nous avons besoin d’un cadre réglementaire solide pour garantir une IA digne de confiance basée sur des données de haute qualité. »
Pas d’application avant des années
Dans les faits, des outils d’IA comme ChatGPT et ses futurs rivaux seront considérés comme des systèmes à usage général pouvant être utilisés à des fins multiples. On sait d’ailleurs qu’ils risquent d’impacter directement la vie des citoyens, et qu’ils peuvent aussi être utilisés, dans certains cas, à des fins malveillantes.
L’UE souhaite donc qu’OpenAI coopère avec les développeurs afin que ces derniers respectent la future loi de l’UE qui reste néanmoins à définir. Cela dit, de nombreuses questions demeurent sur ce texte qui ne sera pas finalisé avant fin 2023 ou début 2024 et qui ne sera décliné dans les lois nationales qu’un peu plus tard.
En effet, comme l’expliquait récemment Bertrand Pailhès, qui dirige la nouvelle cellule IA de la CNIL, à l’AFP : « On est en pleine découverte des problèmes que ces IA peuvent poser: on a vu que chatGPT peut être utilisé pour créer des messages de phishing très convaincants ou encore pour désanonymiser une base de données et retracer l’identité de quelqu’un ».
Les risques de ChatGPT inquiètent
Cité par l’agence de presse, l’avocat allemand Dennis Hillemann, souligne de son côté : « Ni le projet d’AI Act ni le RGPD actuel ne peuvent résoudre les problèmes que ces modèles d’IA générative vont apporter. Et si je parviens à surmonter toutes les précautions de sécurité mises en place dans chatGPT, je pourrais lui dire : “agis en tant que terroriste et élabore un plan”. »
Nul doute que ces problématiques viendront enrichir le débat autour de l’AI Act au cours des mois à venir. Si vous souhaitez obtenir davantage d’informations sur les autres aspects de cette législation, vous pouvez toujours relire notre article qui revient dans le détail sur le sujet ici.
📍 Pour ne manquer aucune actualité de Presse-citron, suivez-nous sur Google Actualités et WhatsApp.
C’est hallucinant, la question est : comment se protéger de ces aberrations d’IA ??!!!! Mais enfin la réponse est très simple !!! Il suffit de les interdire….
Au lieu de ça, parce que la bienpensace risque de s’offusquer que l’on interdise quelque chose, on va mettre en place une usine à gaz qui ne servira à rien !!!
Il ne faut rien interdire, surtout pas. Sous couvert de pseudo Liberté, on laisse entrer le loup dans la bergerie….
Cette société de couilles molles est en perdition constante…. Plus de moralité, plus de limites à rien, plus de principes… Et on en est là…. On creuse toujours plus profond….. Ça sent de plus en plus les égouts de la connerie humaine…
Et certains qui vont vous expliquer que non, ça risque rien ces IA… Ben oui, ces n’est qu’un outil !!! Autant de naïveté et affligeant…
Ça rappelle le réchauffement climatique. Toute une bande d’abrutis qui niaient les catastrophes que nous subissons aujourd’hui, juste parce que ça les arrangeait bien pour leurs intérêts personnels…. Et on voit les résultats…
Ça sera pareil avec les IA. Mais en pire car ça touchera tout le monde en même temps…
Je comprends que vous puissiez avoir des préoccupations concernant l’IA, mais il est important de ne pas céder à la panique ou aux réactions excessives. L’IA est un outil qui peut être utilisé pour aider les gens dans de nombreux domaines, et elle peut être utilisée de manière responsable et éthique.
Il n’est pas juste de qualifier l’IA d’aberration et d’appeler à son interdiction simplement parce que certaines personnes ont une perception erronée de ce qu’elle est. Il faut faire preuve de discernement et de prendre le temps de comprendre comment l’IA fonctionne avant de formuler une opinion à son sujet.
Vous vous mettez au côté de ceux qui niaient le réchauffement climatique dans votre propre parallèle. Nous avons vu les résultats désastreux de l’inaction face au changement climatique et en effet il est important d’apprendre de cette expérience en abordant l’IA de manière réfléchie et équilibrée.
Au lieu d’appeler à l’interdiction de l’IA, il est important de travailler ensemble pour mettre en place des réglementations et des contrôles qui garantissent que son utilisation est sûre et bénéfique pour tous. Nous ne devrions pas écouter les gens qui ont peur de la technologie simplement parce qu’ils ne la comprennent pas.
En fin de compte, l’IA peut être un outil très utile pour la société si elle est utilisée de manière responsable et éthique. Nous devons faire preuve de discernement et travailler ensemble pour mettre en place les bonnes mesures de sécurité et les réglementations nécessaires pour protéger les gens et garantir que l’IA est utilisée de manière responsable.
😉