Passer au contenu

Voiture autonome : qui doit mourir en cas d’accident ? La réponse des internautes

La “Moral Machine” qui laissait les internautes donner leurs priorités a livré son verdict. On sait qui doit vivre ou mourir… On vous explique !

Qui avez-vous choisi sur la Moral Machine ?

Pour un conducteur classique, c’est déjà une question complexe. A l’heure de choisir en cas d’accident, va-t-on plutôt se sauver ou épargner des personnes se trouvant sur la route ? Une situation qui connaît bien sûr une infinité de variables.

Mais qu’en est-il quand on parle de l’intelligence artificielle d’une voiture autonome, car il faudra programmer ces scénarios ? Où se situe le curseur moral ? Une expérience a été lancée en 2016 sur le site Moral Machine avec des chercheurs du MIT.  En quelques questions, les internautes pouvaient définir qui ils sauveraient à partir de plusieurs paramètres : hommes, femmes, enfants, personnes âgées, SDF, médecins, animaux… Priorité aux personnes dans la voiture ou bien celles qui sont à l’extérieur ? Les résultats de ce test de grande ampleur viennent d’être publiés dans la revue Nature.

Une première dans l’histoire

Il faut dire que la question n’est pas à prendre à la légère comme le résument les chercheurs. C’est tout simplement la première fois dans l’histoire que c’est une machine qui doit décider pour un tel moment… qui possède le “droit” de vie ou de mort ?

Jamais dans l’histoire de l’Humanité, une machine n’a été autorisée à décider de façon autonome de qui devrait vivre et qui devrait mourir, en une fraction de seconde, sans supervision en temps réel. Nous allons franchir ce cap à tout moment désormais avec la démocratisation des voitures autonomes.

Au total, ce sont plus de 2 millions d’internautes qui ont participé, originaires de 233 pays et territoires, pour un total de 40 millions de décisions.

Voici les grandes leçons :

  • Les humains plutôt que les animaux.
  • Priorité aux enfants et aux plus nombreux, avec un priorité aux poussette et aux femmes enceintes.
  • Bonus à ceux qui respectent le code de la route.

De façon plus dérangeante, les médecins, sportifs et cadres auraient aussi le droit à une sorte de “priorité” à la vie alors que les personnes pauvres ou enveloppées seraient moins prioritaires…

Attention toutefois, rien ne garantit que cette vision des choses aura une quelconque influence sur la manière dont seront programmées les intelligences artificielles à l’avenir, mais reflète juste le côté “humain” des internautes s’ils devaient confier leur vie à une machine. Et vous, qu’en pensez-vous ?

Source

📍 Pour ne manquer aucune actualité de Presse-citron, suivez-nous sur Google Actualités et WhatsApp.

Newsletter 🍋

Abonnez-vous, et recevez chaque matin un résumé de l’actu tech

8 commentaires
8 commentaires
  1. Heu… On s’en bas les couilles de qui doit mourir ou qui doit vivre Ô_o

    La seule action que devrait pouvoir faire (et que fera!) une voiture autonome, c’est piller en cas de problème, un point c’est tout !

    La voiture ne vas pas commencer à analyser l’environnement pour savoir qui privilégier… La voiture ne DOIT pas quitter la route !

    1. Pas vraiment, ce n’est pas aussi simple, prenons un exemple simple : la voiture avance et un enfant surgit en courant entre deux voitures pour traverser la route, si la voiture pile avec la distance de freinage, la voiture ” saura ” qu’elle va renverser l’enfant, l’IA “devra ” donc choisir une autre alternative que “renverser un piéton”, ce qui inclus de nombreuses variables dont se déporter au risque de créer un accident matériel par exemple. Et bien sur qu’à l’avenir les voitures disposeront d’autant de données sur les passagers des différents véhicules ou des piétons dans son environnement direct qu’elles prendront aussi ses paramètres en compte dans leurs analyses de risques et leurs choix finaux. Selon des circonstances, Une intelligence artificielle devra bien évidemment prendre aussi le choix de quitter la route, car elle ne va écraser une femme enceinte avec une poussette pour épargner son intégrité et son chauffeur… il s’agit de questions délicates que l’homme devra programmer et qui remettra aussi en question la notion de responsabilité au niveau des assurances, c’est un défi particulièrement complexe qui lancera un débat de société complexe sur qui doit vivre ou mourir… mais aussi sur qui sera le “responsable ” dans un accident, le conducteur ou celui qui a programmé l’intelligence artificielle.

    2. Je pense également que l’IA n’a pas à faire ce genre de calcul, comme elle ne le fait d’ailleurs pas aujourd’hui. La voiture doit s’assurer qu’elle respecte à 100% le code de la route, si elle arrive à un passage piéton et que la visibilité peut masquer un danger, elle doit adapter sa vitesse.
      Dans le cas de l’enfant qui surgit, la voiture doit l’avoir détecté et prévoir sa possible trajectoire.
      Si la voiture prends ce genre de décision, au premier mort c’est la fin de la voiture autonome. Imaginons qu’un enfant surgit de derrière une voiture, l’IA calcule qu’il vaut mieux qu’une femme qui marche tranquillement sur le trottoir se fasse écraser pour sauver sa vie. Elle l’écrase et on se rends qu’elle avait un enfant en bandoulière non détecté par l’IA…
      Si la voiture a respecté le code de la route, elle n’est pas responsable en cas d’accident.

  2. L’idée même de prioriser un humain par rapport à un autre est en soit aussi stupide que pour les naissances. Mais au-delà de cette question est : si nous appliquons une hiérarchie de qui doit vivre qui doit mourir nous devrons appliquer ce même choix pour tous les cas de figure où IA intervient (dans une entreprise, dans les transports en commun, dans la police….) Pourquoi résumer la question à un choix et pas : la question doit elle etre posée et résolue ?

    1. Ce n’est pas la voiture qui est au cœur de l’IA, mais l’humain qui devra définir et donc programmer certains paramètres pour que l’IA et donc la voiture les exécutent lorsque les conditions seront réunies. On sait que le monde est de plus en plus connecté et que tous les objets vont s’appairer ou fournir des données, donc si deux voitures doivent choquer, l’IA des deux véhicules (un jour…) sera à même de déterminer quel véhicule devra absorber la plus forte partie de l’inertie du choc, celle d’un homme seul au volant ou celle d’une famille avec deux nouveaux nés à l’arrière.

      Concernant le SDF par exemple de cette étude, c’est j’imagine car les auteurs ont souhaité montrer que les internautes pouvaient sans scrupule donner la priorité de la vie à un médecin plutôt qu’à un SDF, à un bon conducteur par rapport à un moins bon, même si ce dernier n’est pas désigné comme responsable de l’accident, etc. Si des milliers d’internautes sont capables de hiérarchiser la valeur des vies en cas d’accident lors de cette expérience, qu’en est t’il des développeurs des Intelligences artificielles actuelles ou à venir ? Quelqu’un devra faire ou ne pas faire des choix lors de la programmation, c’est ce débat qui mérite d’être lancé

      Aujourd’hui on voit le problème d’un angle de vue, mais un jour il sera perçu d’un autre quand tout le monde se scandalisera qu’un accident de bus scolaire autonome aurait pu être évité si l’IA d’une voiture avec un seul passager avait pris la décision de sortir de la route. Cela peut paraître des débats stériles ou stupides, mais ce sont justement des débats à avoir si l’on souhaite construire un monde sur des normes mathématiques abandonnant l’improvisation humaine.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *