Passer au contenu

Voiture autonome : faut-il programmer votre mort ?

Les voitures autonomes semblent être plus prudentes que les humains, mais en cas d’accident, quelle devrait être la réaction de la voiture, vous sauver ou épargner les tiers ? Cruel dilemme auquel devront répondre les développeurs de l’intelligence artificielle qui équipe les voitures intelligentes.

Le débat est éthique, pourtant quelque part au cœur du code source de l’intelligence artificielle devront se trouver certains scénarios incluant votre mort, pour que les voitures autonomes puissent circuler sur les routes. Trois chercheurs de l’École d’économie de Toulouse et du MIT ont publié une étude sur « Le dilemme social du véhicule autonome ».

Une voiture autonome devra sacrifier son conducteur pour sauver des vies

Ils ont confronté plus de 2000 personnes à un éternel et cruel dilemme : un conducteur doit-il se sacrifier, incluant sa propre mort, pour éviter de tuer un plus grand nombre de personnes ? Globalement les personnes ayant répondu à cette question ont naturellement estimé que « oui », un conducteur doit se sacrifier pour éviter un groupe de 10 piétons par exemple.

En revanche, quand les scientifiques ont posé la question d’une autre manière, en leur demandant s’ils étaient prêts à acheter une voiture autonome, programmée pour se sacrifier impliquant un risque de mort pour les passagers du véhicule, la réponse était moins catégorique. Il semble donc que l’auto-sacrifice de l’intelligence artificielle et des occupants du véhicule ne soit pas un très bon argument de vente pour les voitures intelligentes. Les scientifiques ont résumé leur étude, en indiquant : «Les participants étaient d’accord avec le fait que les véhicules autonomes utilitaristes étaient les plus moraux, mais préféraient pour eux-mêmes un modèle auto-protecteur»

Voiture intelligente : qui doit vivre ou mourir ?

Pourtant il sera nécessaire de trancher, car les véhicules devront prendre une décision si un groupe de piétons surgit de nulle part et que le véhicule calcule qu’il est impossible de freiner et que la solution est de provoquer l’accident de la voiture en l’envoyant dans un mur par exemple, ou vers un précipice.

Pour tenter de trouver une solution à ce dilemme moral, les chercheurs du MIT ont mis en ligne le site « Moral Machine », qui confronte les visiteurs à toutes sortes de situations, afin d’avoir une vision globale de la question. Avec la démocratisation des objets connectés, il sera aussi possible d’imaginer que les véhicules puissent savoir quels passagers occupent un véhicule (nombre, âge, importance, états de santé, etc.). La voiture autonome pourra donc aussi définir quel doit être le véhicule qui encaissera le plus gros du choc de l’accident ! En sommes, les développeurs de l’intelligence artificielle devront coder : qui doit vivre ou mourir…

Un conducteur doit-il mourir pour sauver un groupe de 5 enfants ? Ce même conducteur doit-il vivre s’il s’agit de 5 braqueurs de banque ? Deux voitures vont avoir un accident frontal, l’une des voitures doit sortir de la route pour percuter un arbre laquelle ? Celle avec 4 délinquants à bord ou celle avec un couple de chirurgiens ? Toutes ces situations devront être intégrées dans des algorithmes à l’avenir et les données collectées sur chaque individu depuis des années, pourraient bien être une façon de nous donner une valeur aux yeux d’une machine !

La question étant lancée, nous serions ravis d’avoir votre opinion à ce débat important dans les commentaires.

Source

Source 2

📍 Pour ne manquer aucune actualité de Presse-citron, suivez-nous sur Google Actualités et WhatsApp.

Newsletter 🍋

Abonnez-vous, et recevez chaque matin un résumé de l’actu tech

35 commentaires
35 commentaires
  1. Priorité à celui qui respecte le code de la route, c’est à dire qui n’a pas délibérément pris un risque: c’est bien normal qu’il ait davantage de chances d’avoir la vie sauve que celui qui a choisi de jouer avec sa vie.
    Ça devrait éliminer la grande majorité des dilemmes.
    Ensuite, lorsque les tords sont équitablement partagés, faire le moins de morts possible ne devrait pas déranger grand monde.
    Reste la question des passagers d’un conducteur inconscient. Mais je serais tenté de dire qu’ils doivent choisir leur conducteur et qu’ils ont généralement la possibilité de lui demander de s’arrêter pour les déposer, surtout lorsqu’ils pourront prendre un taxi sans conducteur, quasiment pas plus cher qu’une voiture personnelle.

    1. Ok donc toi, t’es con…
      Parce que oui bien sur : ‘Priorité à celui qui respecte le code de la route’
      Sauf que l’on parle de voiture autonome…
      Donc dans le cas de 2 voitures autonome c’est forcement un agent extérieur qui va provoquer l’accident…

    2. “Priorité à celui qui respecte le code de la route”
      A partir du moment où il s’agit de voitures autonomes, les deux respectent le code de la route…
      Votre théorie tombe à l’eau. Ou alors j’ai pas bien compris..

      1. Donc, à partir du moment où les deux voitures respectent le code de la route, il n’y a pas de raison pour qu’il y ait un accident..

        Donc TOUT L’ARTICLE tombe à l’eau…

        1. Euh ! à partir du moment où deux humains respectent le code de la route il n’y a pas d’accident ? donc TOUTE VOTRE RÉPONSE tombe à l’eau…

          Plus sérieusement, la question mise en avant par l’article ne concerne pas les situations respectant le code de la route, puisque les voitures autonomes ont déjà prouvé qu’elles étaient plus prudentes qu’un humain (aucun accident mortel et aucun blessé depuis le lancement) et juste une poignée d’accrochages souvent causés par un conducteur humain qui percute l’arrière de la voiture autonome.

          La question concerne les éléments imprévisibles ou non détectables par les capteurs permettant une réaction de la voiture. Exemple : un passage piéton… à droite trois jeunes, à gauche une femme avec une poussette. Tous ont le rouge, vous êtes au vert, les voitures en face aussi. Soudain au moment où vous passez à leur hauteur, un jeune pousse son ami en chahutant… 3 scénarios possibles :

          – La Google Car pile (comme un humain), mais avec juste deux 2 mètres de distance de freinage, impossible d’éviter le choc avec le piéton (un blessé grave ou un mort)
          – Donner un coup de volant brutal dans la direction opposée et freiner (aussi comme un humain), risque de renverser la mère et son bébé (un ou deux blessés graves/morts)
          – changer de file et accepter le choc frontal avec le véhicule venant d’en face (pas trop humain comme choix). (plusieurs blessés, sans doute légers).

          Dans tous les cas, il risque d’avoir des blessés, l’intelligence doit cependant prendre une décision et cela doit se programmer pour choisir l’option la plus logique sur le moment. ici le code de la route est respecté, c’est l’imprévisibilité d’un événement et le faible temps de réaction disponible qui conduit à l’accident. Cela n’empêche que la voiture autonome va devoir choisir son option selon les informations dont elle disposera et pas continuer son chemin… Il est fort probable dans ce cas de figure que la voiture choisira la troisième option car les dégâts matériels surpasseront les dégâts humains et que si le véhicule en face est une voiture autonome également une alerte instantanée déclencherait aussi une réaction de freinage chez celle-ci, anticipant l’évitement de l’accident de l’autre voiture. Un humain ne choisirez pas délibérément de percuter frontalement un autre véhicule.

          L’exemple est un peu tiré par les cheveux, mais c’est pour montrer que l’article n’a rien à voir avec le respect du code de la route ou pas, mais bien sur la programmation des options dont disposera l’intelligence artificielle pour réagir, incluant sa propre destruction et donc du conducteur présent à bord. Le calcul sera d’autant plus complexe si l’on inclut de nouvelles variables par le biais de capteurs (nombre de passagers, âge, état de santé, etc.) qui viendraient faire grossir l’équation et probablement changerait la décision finale de l’IA.

          1. Un conducteur humain anticiperait en voyant les jeunes faire les cons au bord de la route :p

  2. Pour moi c’est simple : jamais je n’achèterai une telle voiture, quitte à prendre les transports en commun.
    Je préfère choisir moi même le fait de vivre ou mourir, surtout qu’un pirate pourra toujours faire croire à la voiture qu’elle est en danger pour provoquer volontairement un accident.

  3. celà va dépendre à qui on a posé la question.
    A Paris, par exemple, les dons d’organes sont en déficit, le plus fort taux de refus de France, mais la plus forte demande en organes.
    En province, c’est le contraire: les gens sont prets à donner, mais ne sollicitent pas beaucoup le don d’organes, estimant qu’apres avoir use leurs organes il est normal de partir.
    Résultat, la région parisienne aspire les organes de toute la France.
    Pour la voiture autonome, c’est pareil: certains seront prêts à se sacrifier, d’autres non;
    certains exigeront que l’on se sacrifie pour eux, d’autres non.

    1. Intéressante votre analyse sur le don d’organe.
      Etant professionnel de santé en service de réanimation en province, pourriez vous me citer vos sources que je puisse utiliser votre analyse de la situation du don d’organe en France pour étayer nos futurs discussions dans mon service quand un chirurgien parisien viendra nous voler des précieux organes que nous comptions garder pour des patients indigènes…
      Merci d’avance

  4. Pas évident de répondre à ce test, un peu léger d’ailleurs. On se pose toujours la question : est-ce que je les connais, est-ce ma famille, ont-ils une chance de survie si je leur fonce dedans, suis-je certain de mourir si je fonce dans le mur, qui est plus important une femme un voleur une vieille… pour le chat, pas d’hésitation bien sur.

    Je ne suis pas apte à juger de qui doit vivre ou pas et la machine ne l’est sans doute pas plus que moi. D’ailleurs, la machine détectera-t-elle si c’est une vieille ou un gros ou un voleur ?

    Ce test est intéressant et nous fait nous poser des questions sur nous même, mais il est à rendre plus réaliste.

  5. La réponse se trouve dans la jurisprudence.
    Est ce qu’un conducteur serait condamné pour avoir heurté un groupe de cinq personnes afin d’éviter un précipice ?
    La réponse est non !
    La suite a toujours été différée à la compagnie d’assurances.
    Le risque est que la voiture soit programmée par le constructeur sous influence des assureurs pour que l’indemnisation soit la moins chère possible
    Or pour donner plus de liberté au conducteur, Je pense que cette prise de décision devrait être paramétré par le conducteur sur une interface de la machine.

  6. La réponse me vient spontanément : elle est assez froide mais elle a peut être le mérite d’être utile : il y Aura toujours plusieurs critères analysés par l’algorithme , et l’un d’eux pourrait être , tout de même , de privilégier le véhicule qui se présente sans avoir commis aucune ‘faute’ , ce qui signifie qu’il est dans une configuration normale par rapport aux circonstances . Pourquoi ? Parce que, par définition , le véhicule autonome est censé respecter absolument toutes les mesures de prudence liées aux circonstances , sans parler évidemment de la réglementation sur spot. Et si un événement imprévisible se produit du fait ou par la faute d’éléments incontrôlés , c’est plutôt a ces éléments d’en subir les conséquences ?
    Point de vue plutôt juridique ? Mais qui ne manquera sûrement pas d’être soulevé par les victimes vivantes ou par l’entourage des personnes décédées . Jean

  7. C’est ignoble.

    Si comme le suppose l’article les véhicules sont connectés et peuvent communiquer entre eux, ça ne devrait juste pas pouvoir arriver.

    Autrement ? Équiper les routes de capteurs pour informer les véhicules connectés de la présence d’autres véhicules et de piétons ainsi que de leur direction / vitesse. L’IoT et la ville connectée sont à la mode.

    Revoir les limitations de vitesse pour qu’en évitant l’autre véhicule / piétons le véhicule autonome ne puisse pas percuter un obstacle à trop grande vitesse.

    Verbaliser systématiquement les piétons traversant hors des passages piétons / au feu rouge.

    Ces gens marchent sur la tête. À partir du moment où cette question se pose c’est qu’ils ont échoué.

      1. Un piéton en ville est toujours prioritaire (et puis un accident est vite arriver, il suffit qu’on glisse du trottoir, qu’on soit poussé…), mais de toutes facons, la faible vitesse devrait permettre de s’arrêter à temps.

        Un piéton sur une voie rapide, c’est de la mise en danger d’autrui (et de soi). La question est donc déjà légiférée 😉

  8. Le dernier paragraphe relève de l’utopie absolue…

    La seule solution valable est de programmer les voitures pour réagir comme le ferait un être humain : un groupe de gens traverse sans que je l’aie repéré ? On plante les freins, on ferme les yeux (et on éteint tous les capteurs) en déviant approximativement dans la direction ou y’a le moins de monde dans lequel taper.

  9. cela montre les limites de cette voiture pseudo intelligente. En 40 ans de conduite je n’ai jamais été confronté a ce type de choix.

    les constructeurs de ces machines devraient revoir leurs cours de conduite d’anticipation , conduite défensive et prévisionnelle. En clair, s’il y a un risque de se trouver dans une situation dangereuse ,je lève le pied.

  10. Et si 10 pietons se mettent au milieu de laroute car ils savent que la voiture est programmee pour se mettre en l’ air pour les eviter

  11. Les chercheurs doivent s’ orienter vers la protection des occupants du véhicule.
    Si toutes les voitures sont auto protectrice, tout le monde y trouve son compte!
    Concernant les piétons, ils sont bien sûr la priorité.
    Il faut donc conjuguer une auto-protection optimale des occupants du véhicule avec une protection sans faille des piétons.
    Pour l’option hara kiri une prise en main du véhicule par le conducteur doit être envisagée.

  12. Personnellement, j’estime que ce sont ceux qui ont provoqué l’accident, à savoir ceux qui sont en tort d’être “sacrifiés”.
    Peu importe qu’il s’agisse de braqueurs, d’un groupe de personnes ou d’enfants qui viennent de nulle part en traversant sans avoir préalablement vérifié que la voie était libre, ce n’est pas aux occupants d’une voiture d’assumer la responsabilité de cette faute !

    Ceci dit, il faut convenir du fait qu’une telle situation reste de l’ordre de l’exceptionnel. En général, on parvient à éviter un accident en freinant ou en contournant l’obstacle, quitte à ce qu ‘il y ait un peu de taule froissée. Mais si une voiture autonome est capable d’anticiper les choses, il n’y a pas de raison pour qu’un tel accident arrive.

  13. Le mieux serait de s’inspirer de la nature et d’avoir une solution auto protectrice pour chacun et le hasard fera le reste. Vouloir coder tous les types de scénario est irréaliste tellement les variables augmentent exponentiellement.
    De toute façon l’essence même de tout système complexe et de se maintenir en vie et doit se protéger. Alors si un véhicule est prêt à sacrifier son conducteur je pense que le conducteur sera prêt à ne ne pas prendre ce risque.
    Laisseriez-vous vos enfants ou les personnes que vous aimez monter dans une voiture qui est prête à les envoyer dans un mur parce que un algorithme a décidé qu’un politicien était plus important ?

  14. Il y a plus de 60 ans, Isaac Asimov a envisagé ce type de dilemme et a imaginé les 3 lois de la robotique. C’est intéressant de voir que cette approche presque philosophique, voire spirituelle (il s’agit de vie ou de mort) resurgisse si longtemps après. Au-delà des algorithmes, se pose la question de la relation de l’homme à la machine et au programme, et de la confiance également que l’on peut avoir à remettre sa vie entre les mains d’un robot.

  15. Je partage l’avis de Rico; il n’est pas possible de programmer par discrimination, aussi éthique soit-t-elle, car nous entreprendrions alors de classer la valeur de la vie des individus selon leur échelon social, ce qui est très dangereux d’un pont de vue éthique!
    Mieux vaut programmer des voitures sécuritaire à basse vitesse et surtout multiplier le transport public!

  16. La question n’est pas à prendre à la légère. A mon avis, je pense qu’effectivement le nombre de victimes est le facteur principal, après des choses comme le fait que les passagers soient des malfrats n’est pas vraiment quelque chose qu’on peut connaître à 100 %. Enfin, des mesures telle que des personnes importantes soient privilégiées sur le nombre devraient s’appliquer uniquement par mesure exceptionnelle si cette personne “importante” devait à tout prix rester en vie.

    De toute évidence, on peut imaginer que ces systèmes pourront à long terme être contrôlables à distance par les autorités pour des raisons de sécurité ou pour reprendre le cas des malfrats, les arrêter.

    Tout est question de décisions programmées et de qui a le contrôle.

    Après, on peut partir loin. Si dans une voiture il y a un enfant de 11 ans et dans la seconde, un autre enfant de 12 ans, qu’allons-nous faire ? On va sauver le plus jeune ? On ne peut pas décider de ces choses-là à moins d’obtenir encore plus d’informations sur ces deux enfants mais ça en deviendrait inhumain.

  17. Je pense surtout que la voiture ne devra pas prendre la décision de tuer, sans regarder au nombre de blessés…

    C’est à dire que la voiture va préférer piler, mais qu’elle ne va pas – activement – prendre une décision qui risquerait de blesser d’autres humains, à savoir faire une manœuvre risquée pour les occupants ou autre

  18. La voiture a accès aux casiers judiciaires ?!
    Qui à rêver, on peut sacrifier celui qui ne paye pas ses factures, ou puisque la voiture saura tout de son passager, celui qui trompe sa femme…

    Le dernier paragraphe est un peu n’importe quoi…

    Je pense qu’il faudra faire des calculs statistiques (dénués de tout jugement de valeur) et privilégier les situations qui minimisent le nombre de mort (qui à maximiser le nombre de blesser légers…).

  19. Je crois que ce n’est pas bon de livre sa vie entre les nains d’une voiture , qui est dirigé par un système intelligent car il a été déjà piraté . Et ils le ferrons encore

    1. Tout système est piratable. Si quelqu’un veut se débarrasser de toi, il lui suffirait de saboter tes cables de frein… Pas besoin d’un ordinateur de bord 😉

  20. Et voilà le premier accident mortel d’une voiture semi autonome Tesla les capteurs ne prennent pas en compte une hauteur suffisante pour passer tout le temps. Du coup elle est passée sous un camion ce qui a arraché le toit de la tesla et par la même la tête de son conducteur. Les Tesla nous faisaient déjà tourner la tête mais voilà qu’elles les font tomber.
    Personnellement j’attendrais que la technologie soit suffisamment mûre pour monter dans un véhicule de ce type en mode autonome

    1. Selon les premiers témoignages, le gars était en train de regarder un film. Ce n’est pas l’Autopilot Tesla qui est responsable de l’accident mais la connerie du conducteur.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *