Passer au contenu

L’Europe adopte l’AI Act : que va changer ce texte encadrant l’intelligence artificielle ?

Alors que le secteur de la tech est engagé dans une course à l’IA, l’Union européenne adopte son texte qui encadre cette technologie. La nouvelle loi qui vient d’être adoptée par le Conseil de l’UE prévoit des règles de transparence qui varient en fonction des risques liés à un système d’IA.

L’UE prouve une fois de plus qu’elle est en avance sur les autres puissances mondiales en matière de régulation des nouvelles technologies. Alors qu’elle vient de débuter l’application du Digital Markets Act, qui régule les géants de la tech, l’Union européenne adopte une autre législation baptisée Artificial Intelligence Act ou AI Act, qui vise à réduire les risques liés au développement de l’intelligence artificielle.

Le nouveau texte vient d’être approuvé par le Conseil de l’Union européenne, après avoir été soumis par la Commission en avril 2021, et après un accord provisoire entre les colégislateurs en décembre 2023. La prochaine étape sera la publication au Journal officiel de l’UE.

De nouvelles obligations et des pratiques interdites

“La nouvelle loi vise à favoriser le développement et l’adoption de systèmes d’IA sûrs et fiables sur le marché unique de l’UE par les acteurs privés et publics. Dans le même temps, il vise à garantir le respect des droits fondamentaux des citoyens de l’UE et à stimuler les investissements et l’innovation dans le domaine de l’intelligence artificielle en Europe”, explique le Conseil de l’UE.

Au lieu d’appliquer les mêmes règles pour tous les systèmes d’IA, la nouvelle loi s’appuie sur un système de classification. Plus les risques liés à un système sont élevés, plus les règles de transparence seront strictes. Ainsi, s’il est déterminé que les risques sont limités pour un système, son développeur ne sera soumis qu’à des obligations de transparence “très légères”.

Les systèmes à risque élevé sont autorisés dans l’UE, mais le développeur sera soumis à plus de règles. Et certains systèmes seront tout simplement interdits. Cela inclut les logiciels de manipulation cognitivo-comportementale et de notation sociale. “La loi interdit également l’utilisation de l’IA pour une police prédictive basée sur le profilage et les systèmes utilisant des données biométriques pour catégoriser les personnes selon des catégories spécifiques telles que la race, la religion ou l’orientation sexuelle”, écrit le Conseil.

Des règles qui s’appliquent aux IA de type ChatGPT

Cette nouvelle loi, qui s’appuie sur une classification des systèmes en fonction des risques, s’applique aux IA de type ChatGPT ou Gemini. Comme les autres systèmes, une intelligence artificielle à usage général ne sera soumise qu’à un minimum de règles de transparence si les risques liés à celle-ci sont limités. En revanche, les règles seront plus strictes pour le développeur, s’il existe un risque systémique.

Et avant qu’un système à risque élevé ne soit lancé, son impact sur les droits fondamentaux devra être évalué. Par ailleurs, les IA appartenant à cette catégorie devront aussi être enregistrées sur une base de données et informer les utilisateurs lorsque ceux-ci sont exposés à une fonctionnalité qui détecte les émotions.

Application en 2026, avec des exceptions

En cas de manquement, les laboratoires d’IA peuvent écoper d’une amende équivalente à un pourcentage du chiffre d’affaires mondial de l’année précédente, ou d’un montant prédéterminé.

La nouvelle loi s’appliquera à partir de 2026. Mais selon les explications de Reuters, certaines mesures seront appliquées plus tôt. Par exemple, le bannissement des de la notation sociale, ou de l’analyse non ciblées des images de surveillance avec de la reconnaissance faciale, s’appliquerait dans six mois. D’autre part, les obligations pour les IA à usage général seraient applicables avant 2026.

  • L’Union européenne adopte définitivement l’AI Act, une nouvelle loi qui encadre l’intelligence artificielle
  • L’approche de l’UE vise à imposer des règles de transparence qui varient en fonction des risques liés à un système
  • Certains usages, comme la notation sociale, sont bannis
  • Et si la loi ne s’applique qu’en 2026, les entreprises qui développent des systèmes d’IA à usage générale devront se soumettre aux nouvelles obligations plus tôt

📍 Pour ne manquer aucune actualité de Presse-citron, suivez-nous sur Google Actualités et WhatsApp.

Newsletter 🍋

Abonnez-vous, et recevez chaque matin un résumé de l’actu tech

1 commentaire
1 commentaire
  1. Si on autorise la notation social, les politiques français vont avoir direct les pires notes.
    Ce serait dommage de se rendre compte qu’il y a plus de délinquants à l’Elysée qu’en Seine Saint Denis XD

Les commentaires sont fermés.