Passer au contenu

Les 23 principes pour une intelligence artificielle bienveillante

Comment se prémunir d’une intelligence artificielle « super-intelligente ou forte » qui, de façon autonome, n’agirait pas en alignement avec nos valeurs humaines ou bien qui serait manipulée dans ce sens ?

Le Futur Of Life institute, crée par Max Tegmark, professeur au MIT et auteur du livre Life 3.0: Being Human in the Age of Artificial Intelligence, s’est donné pour mission de favoriser l’émergence des nouvelles technologies pour le bien commun. Dans ce cadre, une question pendue aux lèvres de tous les chercheurs associés à cette initiative :

Comment se prémunir d’une intelligence artificielle « super-intelligente ou forte » qui, de façon autonome, n’agirait pas en alignement avec nos valeurs humaines ou bien qui serait manipulée dans ce sens ?

La réponse est une charte de 23 principes créée par plus de 200 chercheurs, y compris Yann Le Cunn le directeur du centre de recherche en IA de Facebook à Paris, Demis Hassabis le fondateur de Deepmind, Ilya Sutskever le fondateur d’Open AI, le trio de tête de Google : Peter Norvig, Ray Kurzweil et Jeff Dean et validée par Stephen Hawking, Elon Musk, Sam Altman et des centaines d’entrepreneurs et chercheurs reconnus mondialement dans ce domaine, qui établit un framework de développement pour éviter une catastrophe mondiale.

Cette charte stipule notamment que :

  • L’objectif de la recherche sur l’IA devrait être de créer non pas une intelligence autonome, mais une intelligence utile.
  • Les investissements dans l’IA devraient s’accompagner d’un financement pour la recherche visant à garantir son utilisation bénéfique
  • Il devrait y avoir un échange constructif et sain entre les chercheurs en intelligence artificielle et les décideurs (policy makers).
  • Une culture de coopération, de confiance et de transparence devrait être encouragée parmi les chercheurs et les développeurs de l’intelligence artificielle.
  • Les équipes développant des systèmes d’IA devraient coopérer activement afin d’éviter tout buy-pass des normes de sécurité.

Quelques principes éthiques cruciaux :

  • Transparence en cas d’échec : Si un système d’IA cause un préjudice, il devrait être possible de déterminer pourquoi.
  • Transparence judiciaire : Toute participation d’un système autonome à la prise de décision judiciaire devrait fournir une explication satisfaisante, contrôlable par une autorité humaine compétente.
  • Responsabilité : les concepteurs et constructeurs de systèmes d’IA avancés sont acteurs des implications morales de leurs utilisations abusives, et sont responsables de définir ces implications.
  • Valeurs humaines : les systèmes d’IA doivent être conçus et gérés de manière à être compatibles avec les idéaux de dignité humaine, de droits, de liberté et de diversité.
  • Protection de la vie privée : les personnes devraient avoir le droit d’accéder aux données que les IA génèrent, de les gérer et de les contrôler.
  • Liberté et vie privée : L’application de l’IA aux données personnelles ne doit pas restreindre de manière déraisonnable la liberté réelle ou perçue de l’individu en question.
  • Partage des ressources : La prospérité économique créée par l’intelligence artificielle doit être partagée de manière large afin de bénéficier à toute l’humanité.
  • Contrôle : les humains doivent choisir comment et s’il faut déléguer les décisions aux systèmes d’IA pour atteindre des objectifs choisis par l’homme.
  • Course aux armements de l’IA : Une course aux armements avec des armes autonomes mortelles doit être évitée.
  • Bien commun : l’IA forte ne devrait être développée qu’au service d’idéaux éthiques largement partagés et dans l’intérêt de toute l’humanité plutôt que d’un seul État ou organisation.

La liste complète est à retrouver ici.

📍 Pour ne manquer aucune actualité de Presse-citron, suivez-nous sur Google Actualités et WhatsApp.

Newsletter 🍋

Abonnez-vous, et recevez chaque matin un résumé de l’actu tech

1 commentaire
1 commentaire
Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *