C’est peu dire que leurs propositions seront scrutées de près par les géants de la Tech. Les députés européens veulent adopter des mesures assez musclées pour tenter de réguler les technologies d’intelligence artificielle.
Ce projet est en discussion depuis un bon moment déjà, mais il intègre désormais des mesures concernant directement ChatGPT, et ses rivaux tels que Bard et Bing Chat. Voici 4 mesures qui pourraient changer le futur de l’IA en Europe.
L’enjeu majeur du droit d’auteur
C’est l’une des problématiques les plus criantes avec les modèles de langage génératifs. L’IA s’appuie sur des écrits ou des images pour produire ses contenus, et ces derniers peuvent être soumis à des copyrights. Des procès ont d’ores et déjà été lancés.
Les députés européens n’ignorent pas ce sujet, et ils prévoient que les développeurs de ces applications devront déclarer si du matériel protégé par des droits d’auteurs a été utilisé pour entraîner leurs IA. De quoi permettre aux créateurs d’exiger un paiement si leur matériel a été employé.
Quelle responsabilité pour les entreprises ?
ChatGPT et ses rivaux peuvent permettre des applications extrêmement bénéfiques et sont porteuses de progrès. Malheureusement, on sait aussi qu’elles peuvent aussi tomber entre de mauvaises mains et faire l’objet d’utilisations malveillantes, notamment pour mener à bien des arnaques ou des cyberattaques.
Les parlementaires veulent donc que la responsabilité d’un recours abusif à ces IA incombe aux développeurs, et non aux plus petites entreprises qui vont les utiliser.
Une plus grande transparence
D’après les propositions qu’ont pu consulter nos confrères du Financial Times, les députés souhaitent que les chatbots indiquent bien à leurs utilisateurs qu’ils ne sont pas des humains. La transparence doit être de mise, et on imagine qu’ici encore, les utilisations abusives de ChatGPT sont dans le viseur.
La police prédictive interdite
Cette mesure ne concerne pas directement les modèles de langage, mais elle fait l’objet d’âpres discussions. Les élus ont en effet insisté pour que le texte comprenne une interdiction de la police prédictive. Il en va ainsi de l’utilisation d’algorithmes permettant d’identifier un suspect ou de prévenir un crime.
Il faudra aussi voir si cette décision entrera ou non en contradiction avec la récente loi française qui a validé le recours à la vidéosurveillance algorithmique (VSA) afin de sécuriser les Jeux Olympiques de Paris 2024.
Rien ne dit que toutes ces idées seront retenues dans le texte final qui reste en discussion. Il devrait être finalisé avant fin 2023 ou début 2024 et sera ensuite décliné dans les lois nationales un peu plus tard.
📍 Pour ne manquer aucune actualité de Presse-citron, suivez-nous sur Google Actualités et WhatsApp.