- Le Parlement européen a voté une nouvelle réglementation pour encadrer l’IA, entraînant des changements majeurs dans le paysage technologique
- Ces changements comprennent une protection renforcée des données personnelles, une transparence accrue des algorithmes, une responsabilité accrue des entreprises, la création d’une autorité de régulation de l’IA et un accent sur l’éthique de l’IA
- Ces nouvelles règles marquent un tournant dans l’approche de l’Europe en matière d’IA, avec des implications potentielles pour la réglementation de l’IA à l’échelle mondiale
L’Europe vient de franchir une étape décisive dans la régulation des technologies de l’Intelligence Artificielle (IA). Le Parlement européen a en effet voté en faveur d’une nouvelle réglementation visant à encadrer l’utilisation de l’IA. Cet acte législatif majeur est susceptible de provoquer des changements significatifs dans le paysage technologique européen.
En attendant le vote du projet de loi, voici les 5 changements majeurs auxquels s’attendre.
Protection renforcée des données personnelles
L’un des aspects les plus importants de cette nouvelle réglementation est le renforcement de la protection des données personnelles. Les entreprises utilisant l’IA devront se conformer à des normes plus strictes en matière de collecte, de traitement et de stockage des données personnelles.
Ce changement s’inscrit dans la continuité du RGPD, mettant l’accent sur la protection des données et la vie privée des citoyens européens. Symbole de cette volonté, le régulateur irlandais a indiqué à Google qu’il devrait retarder le déploiement de Bard en Europe, le temps de savoir si cette IA respecte bien les règles du RGPD.
Transparence accrue des algorithmes
Les nouvelles règles exigent également une plus grande transparence des algorithmes utilisés dans les systèmes d’IA. Cela signifie que les entreprises devront être capables d’expliquer comment leurs systèmes prennent des décisions, ce qui permettra de lutter contre les biais potentiels et d’assurer une plus grande équité.
Là encore, l’Europe semble vouloir adapter des règles déjà établies dans de récentes lois. Le Digital Services Act et le Digital Market Act imposent déjà aux géants du numérique de donner accès aux algorithmes aux autorités européennes en cas de besoin.
Responsabilité des entreprises
Les entreprises seront tenues pour responsables des actions de leurs systèmes d’IA. Si un système d’IA cause un préjudice, l’entreprise en subira les conséquences légales. Cela devrait encourager l’industrie à investir davantage dans la sécurité et la fiabilité de leurs systèmes d’IA.
Ce point sur la responsabilité devrait avoir un effet bénéfique sur les outils d’IA. Jusqu’à maintenant, ChatGPT, Bard ou Bing Chat (pour ne citer qu’elles) manquaient parfois d’exactitude. Pire, certaines, comme Bing, n’hésitent pas à diffuser de fausses informations. OpenAI a même indiqué avoir prévenu Microsoft du caractère inachevé de GPT-4 juste avant la sortie de Bing Chat. Trop pressé, Microsoft avait quand même sorti son IA, quitte à ce qu’elle commette parfois de graves erreurs d’appréciation.
Création d’une autorité de régulation de l’IA
L’Europe envisage de créer une autorité spécifique pour superviser la conformité à ces nouvelles règles. Cette autorité aurait le pouvoir d’inspecter les entreprises et d’imposer des sanctions en cas de non-conformité.
Les eurodéputés n’ont pour le moment pas précisé quelles seront les sanctions. Ce sujet devrait être abordé lors des débats, une fois le projet de loi présenté au Parlement. Si l’on se réfère aux sanctions prévues par le DSA et le DMA, celles concernant l’IA devraient aussi pousser les entreprises à se montrer vigilantes.
Éthique de l’IA
Enfin, ces nouvelles règles mettent l’accent sur l’éthique de l’IA. Les entreprises seront encouragées à adopter des principes éthiques dans le développement et l’utilisation de l’IA, tels que l’équité, la non-discrimination et le respect de la dignité humaine.
Peu après l’explosion de ChatGPT, OpenAI avait été pointée du doigt pour avoir fait travailler des “petites mains” dans des pays où le coût de la main d’oeuvre est moins élevé. Une enquête a révélé que les conditions de travail étaient particulièrement déplorables. Pas question donc de laisser passer ce genre de pratiques en Europe.
Cette nouvelle réglementation que les eurodéputés comptent voter le plus vite possible marque un tournant dans l’approche de l’Europe en matière d’IA. Alors que la technologie continue d’évoluer à un rythme rapide, il est crucial d’établir des règles pour garantir que son utilisation reste sûre, éthique et bénéfique pour la société.
Les entreprises qui opèrent en Europe devront donc s’adapter à ces changements, ce qui pourrait à terme influencer la manière dont l’IA est réglementée dans le monde entier. Mais aussi la façon dont ces outils sont développés.
📍 Pour ne manquer aucune actualité de Presse-citron, suivez-nous sur Google Actualités et WhatsApp.