Voiture autonome : faut-il programmer votre mort ?

Les voitures autonomes semblent ĂȘtre plus prudentes que les humains, mais en cas d’accident, quelle devrait ĂȘtre la rĂ©action de la voiture, vous sauver ou Ă©pargner les tiers ? Cruel dilemme auquel devront rĂ©pondre les dĂ©veloppeurs de l’intelligence artificielle qui Ă©quipe les voitures intelligentes.

Google Self Driving car voiture autonome véhicule

Le dĂ©bat est Ă©thique, pourtant quelque part au cƓur du code source de l’intelligence artificielle devront se trouver certains scĂ©narios incluant votre mort, pour que les voitures autonomes puissent circuler sur les routes. Trois chercheurs de l’École d’Ă©conomie de Toulouse et du MIT ont publiĂ© une Ă©tude sur « Le dilemme social du vĂ©hicule autonome ».

Une voiture autonome devra sacrifier son conducteur pour sauver des vies

Ils ont confronté plus de 2000 personnes à un éternel et cruel dilemme : un conducteur doit-il se sacrifier, incluant sa propre mort, pour éviter de tuer un plus grand nombre de personnes ? Globalement les personnes ayant répondu à cette question ont naturellement estimé que « oui », un conducteur doit se sacrifier pour éviter un groupe de 10 piétons par exemple.

En revanche, quand les scientifiques ont posĂ© la question d’une autre maniĂšre, en leur demandant s’ils Ă©taient prĂȘts Ă  acheter une voiture autonome, programmĂ©e pour se sacrifier impliquant un risque de mort pour les passagers du vĂ©hicule, la rĂ©ponse Ă©tait moins catĂ©gorique. Il semble donc que l’auto-sacrifice de l’intelligence artificielle et des occupants du vĂ©hicule ne soit pas un trĂšs bon argument de vente pour les voitures intelligentes. Les scientifiques ont rĂ©sumĂ© leur Ă©tude, en indiquant : «Les participants Ă©taient d’accord avec le fait que les vĂ©hicules autonomes utilitaristes Ă©taient les plus moraux, mais prĂ©fĂ©raient pour eux-mĂȘmes un modĂšle auto-protecteur»

Voiture intelligente : qui doit vivre ou mourir ?

Pourtant il sera nĂ©cessaire de trancher, car les vĂ©hicules devront prendre une dĂ©cision si un groupe de piĂ©tons surgit de nulle part et que le vĂ©hicule calcule qu’il est impossible de freiner et que la solution est de provoquer l’accident de la voiture en l’envoyant dans un mur par exemple, ou vers un prĂ©cipice.

Pour tenter de trouver une solution Ă  ce dilemme moral, les chercheurs du MIT ont mis en ligne le site « Moral Machine », qui confronte les visiteurs Ă  toutes sortes de situations, afin d’avoir une vision globale de la question. Avec la dĂ©mocratisation des objets connectĂ©s, il sera aussi possible d’imaginer que les vĂ©hicules puissent savoir quels passagers occupent un vĂ©hicule (nombre, Ăąge, importance, Ă©tats de santĂ©, etc.). La voiture autonome pourra donc aussi dĂ©finir quel doit ĂȘtre le vĂ©hicule qui encaissera le plus gros du choc de l’accident ! En sommes, les dĂ©veloppeurs de l’intelligence artificielle devront coder : qui doit vivre ou mourir


Un conducteur doit-il mourir pour sauver un groupe de 5 enfants ? Ce mĂȘme conducteur doit-il vivre s’il s’agit de 5 braqueurs de banque ? Deux voitures vont avoir un accident frontal, l’une des voitures doit sortir de la route pour percuter un arbre laquelle ? Celle avec 4 dĂ©linquants Ă  bord ou celle avec un couple de chirurgiens ? Toutes ces situations devront ĂȘtre intĂ©grĂ©es dans des algorithmes Ă  l’avenir et les donnĂ©es collectĂ©es sur chaque individu depuis des annĂ©es, pourraient bien ĂȘtre une façon de nous donner une valeur aux yeux d’une machine !

La question Ă©tant lancĂ©e, nous serions ravis d’avoir votre opinion Ă  ce dĂ©bat important dans les commentaires.

Source

Source 2


35 commentaires

  1. PrioritĂ© Ă  celui qui respecte le code de la route, c’est Ă  dire qui n’a pas dĂ©libĂ©rĂ©ment pris un risque: c’est bien normal qu’il ait davantage de chances d’avoir la vie sauve que celui qui a choisi de jouer avec sa vie.
    Ça devrait Ă©liminer la grande majoritĂ© des dilemmes.
    Ensuite, lorsque les tords sont équitablement partagés, faire le moins de morts possible ne devrait pas déranger grand monde.
    Reste la question des passagers d’un conducteur inconscient. Mais je serais tentĂ© de dire qu’ils doivent choisir leur conducteur et qu’ils ont gĂ©nĂ©ralement la possibilitĂ© de lui demander de s’arrĂȘter pour les dĂ©poser, surtout lorsqu’ils pourront prendre un taxi sans conducteur, quasiment pas plus cher qu’une voiture personnelle.

    • Ok donc toi, t’es con…
      Parce que oui bien sur : ‘PrioritĂ© Ă  celui qui respecte le code de la route’
      Sauf que l’on parle de voiture autonome…
      Donc dans le cas de 2 voitures autonome c’est forcement un agent extĂ©rieur qui va provoquer l’accident…

    • « PrioritĂ© Ă  celui qui respecte le code de la route »
      A partir du moment oĂč il s’agit de voitures autonomes, les deux respectent le code de la route…
      Votre thĂ©orie tombe Ă  l’eau. Ou alors j’ai pas bien compris..

      • Donc, Ă  partir du moment oĂč les deux voitures respectent le code de la route, il n’y a pas de raison pour qu’il y ait un accident..

        Donc TOUT L’ARTICLE tombe Ă  l’eau…

        • Emmanuel Ghesquier
          Emmanuel Ghesquier on

          Euh ! Ă  partir du moment oĂč deux humains respectent le code de la route il n’y a pas d’accident ? donc TOUTE VOTRE RÉPONSE tombe Ă  l’eau…

          Plus sĂ©rieusement, la question mise en avant par l’article ne concerne pas les situations respectant le code de la route, puisque les voitures autonomes ont dĂ©jĂ  prouvĂ© qu’elles Ă©taient plus prudentes qu’un humain (aucun accident mortel et aucun blessĂ© depuis le lancement) et juste une poignĂ©e d’accrochages souvent causĂ©s par un conducteur humain qui percute l’arriĂšre de la voiture autonome.

          La question concerne les Ă©lĂ©ments imprĂ©visibles ou non dĂ©tectables par les capteurs permettant une rĂ©action de la voiture. Exemple : un passage piĂ©ton… Ă  droite trois jeunes, Ă  gauche une femme avec une poussette. Tous ont le rouge, vous ĂȘtes au vert, les voitures en face aussi. Soudain au moment oĂč vous passez Ă  leur hauteur, un jeune pousse son ami en chahutant… 3 scĂ©narios possibles :

          – La Google Car pile (comme un humain), mais avec juste deux 2 mĂštres de distance de freinage, impossible d’Ă©viter le choc avec le piĂ©ton (un blessĂ© grave ou un mort)
          – Donner un coup de volant brutal dans la direction opposĂ©e et freiner (aussi comme un humain), risque de renverser la mĂšre et son bĂ©bĂ© (un ou deux blessĂ©s graves/morts)
          – changer de file et accepter le choc frontal avec le vĂ©hicule venant d’en face (pas trop humain comme choix). (plusieurs blessĂ©s, sans doute lĂ©gers).

          Dans tous les cas, il risque d’avoir des blessĂ©s, l’intelligence doit cependant prendre une dĂ©cision et cela doit se programmer pour choisir l’option la plus logique sur le moment. ici le code de la route est respectĂ©, c’est l’imprĂ©visibilitĂ© d’un Ă©vĂ©nement et le faible temps de rĂ©action disponible qui conduit Ă  l’accident. Cela n’empĂȘche que la voiture autonome va devoir choisir son option selon les informations dont elle disposera et pas continuer son chemin… Il est fort probable dans ce cas de figure que la voiture choisira la troisiĂšme option car les dĂ©gĂąts matĂ©riels surpasseront les dĂ©gĂąts humains et que si le vĂ©hicule en face est une voiture autonome Ă©galement une alerte instantanĂ©e dĂ©clencherait aussi une rĂ©action de freinage chez celle-ci, anticipant l’Ă©vitement de l’accident de l’autre voiture. Un humain ne choisirez pas dĂ©libĂ©rĂ©ment de percuter frontalement un autre vĂ©hicule.

          L’exemple est un peu tirĂ© par les cheveux, mais c’est pour montrer que l’article n’a rien Ă  voir avec le respect du code de la route ou pas, mais bien sur la programmation des options dont disposera l’intelligence artificielle pour rĂ©agir, incluant sa propre destruction et donc du conducteur prĂ©sent Ă  bord. Le calcul sera d’autant plus complexe si l’on inclut de nouvelles variables par le biais de capteurs (nombre de passagers, Ăąge, Ă©tat de santĂ©, etc.) qui viendraient faire grossir l’Ă©quation et probablement changerait la dĂ©cision finale de l’IA.

          • Un conducteur humain anticiperait en voyant les jeunes faire les cons au bord de la route :p

  2. Pour moi c’est simple : jamais je n’achĂšterai une telle voiture, quitte Ă  prendre les transports en commun.
    Je prĂ©fĂšre choisir moi mĂȘme le fait de vivre ou mourir, surtout qu’un pirate pourra toujours faire croire Ă  la voiture qu’elle est en danger pour provoquer volontairement un accident.

  3. celà va dépendre à qui on a posé la question.
    A Paris, par exemple, les dons d’organes sont en dĂ©ficit, le plus fort taux de refus de France, mais la plus forte demande en organes.
    En province, c’est le contraire: les gens sont prets Ă  donner, mais ne sollicitent pas beaucoup le don d’organes, estimant qu’apres avoir use leurs organes il est normal de partir.
    Résultat, la région parisienne aspire les organes de toute la France.
    Pour la voiture autonome, c’est pareil: certains seront prĂȘts Ă  se sacrifier, d’autres non;
    certains exigeront que l’on se sacrifie pour eux, d’autres non.

    • CĂ©dric on

      IntĂ©ressante votre analyse sur le don d’organe.
      Etant professionnel de santĂ© en service de rĂ©animation en province, pourriez vous me citer vos sources que je puisse utiliser votre analyse de la situation du don d’organe en France pour Ă©tayer nos futurs discussions dans mon service quand un chirurgien parisien viendra nous voler des prĂ©cieux organes que nous comptions garder pour des patients indigĂšnes…
      Merci d’avance

  4. Faute d’ortografe :
    « les dĂ©veloppeurs de l’intelligence artificielle devront codĂ©s » -> devront CODER

  5. Pas Ă©vident de rĂ©pondre Ă  ce test, un peu lĂ©ger d’ailleurs. On se pose toujours la question : est-ce que je les connais, est-ce ma famille, ont-ils une chance de survie si je leur fonce dedans, suis-je certain de mourir si je fonce dans le mur, qui est plus important une femme un voleur une vieille… pour le chat, pas d’hĂ©sitation bien sur.

    Je ne suis pas apte Ă  juger de qui doit vivre ou pas et la machine ne l’est sans doute pas plus que moi. D’ailleurs, la machine dĂ©tectera-t-elle si c’est une vieille ou un gros ou un voleur ?

    Ce test est intĂ©ressant et nous fait nous poser des questions sur nous mĂȘme, mais il est Ă  rendre plus rĂ©aliste.

  6. La réponse se trouve dans la jurisprudence.
    Est ce qu’un conducteur serait condamnĂ© pour avoir heurtĂ© un groupe de cinq personnes afin d’Ă©viter un prĂ©cipice ?
    La réponse est non !
    La suite a toujours Ă©tĂ© diffĂ©rĂ©e Ă  la compagnie d’assurances.
    Le risque est que la voiture soit programmĂ©e par le constructeur sous influence des assureurs pour que l’indemnisation soit la moins chĂšre possible
    Or pour donner plus de libertĂ© au conducteur, Je pense que cette prise de dĂ©cision devrait ĂȘtre paramĂ©trĂ© par le conducteur sur une interface de la machine.

  7. La rĂ©ponse me vient spontanĂ©ment : elle est assez froide mais elle a peut ĂȘtre le mĂ©rite d’ĂȘtre utile : il y Aura toujours plusieurs critĂšres analysĂ©s par l’algorithme , et l’un d’eux pourrait ĂȘtre , tout de mĂȘme , de privilĂ©gier le vĂ©hicule qui se prĂ©sente sans avoir commis aucune ‘faute’ , ce qui signifie qu’il est dans une configuration normale par rapport aux circonstances . Pourquoi ? Parce que, par dĂ©finition , le vĂ©hicule autonome est censĂ© respecter absolument toutes les mesures de prudence liĂ©es aux circonstances , sans parler Ă©videmment de la rĂ©glementation sur spot. Et si un Ă©vĂ©nement imprĂ©visible se produit du fait ou par la faute d’Ă©lĂ©ments incontrĂŽlĂ©s , c’est plutĂŽt a ces Ă©lĂ©ments d’en subir les consĂ©quences ?
    Point de vue plutĂŽt juridique ? Mais qui ne manquera sĂ»rement pas d’ĂȘtre soulevĂ© par les victimes vivantes ou par l’entourage des personnes dĂ©cĂ©dĂ©es . Jean

  8. C’est ignoble.

    Si comme le suppose l’article les vĂ©hicules sont connectĂ©s et peuvent communiquer entre eux, ça ne devrait juste pas pouvoir arriver.

    Autrement ? Équiper les routes de capteurs pour informer les vĂ©hicules connectĂ©s de la prĂ©sence d’autres vĂ©hicules et de piĂ©tons ainsi que de leur direction / vitesse. L’IoT et la ville connectĂ©e sont Ă  la mode.

    Revoir les limitations de vitesse pour qu’en Ă©vitant l’autre vĂ©hicule / piĂ©tons le vĂ©hicule autonome ne puisse pas percuter un obstacle Ă  trop grande vitesse.

    Verbaliser systématiquement les piétons traversant hors des passages piétons / au feu rouge.

    Ces gens marchent sur la tĂȘte. À partir du moment oĂč cette question se pose c’est qu’ils ont Ă©chouĂ©.

      • Emmanuel Bouillon on

        Un piĂ©ton en ville est toujours prioritaire (et puis un accident est vite arriver, il suffit qu’on glisse du trottoir, qu’on soit poussĂ©…), mais de toutes facons, la faible vitesse devrait permettre de s’arrĂȘter Ă  temps.

        Un piĂ©ton sur une voie rapide, c’est de la mise en danger d’autrui (et de soi). La question est donc dĂ©jĂ  lĂ©gifĂ©rĂ©e 😉

  9. Le dernier paragraphe relĂšve de l’utopie absolue…

    La seule solution valable est de programmer les voitures pour rĂ©agir comme le ferait un ĂȘtre humain : un groupe de gens traverse sans que je l’aie repĂ©rĂ© ? On plante les freins, on ferme les yeux (et on Ă©teint tous les capteurs) en dĂ©viant approximativement dans la direction ou y’a le moins de monde dans lequel taper.

  10. cela montre les limites de cette voiture pseudo intelligente. En 40 ans de conduite je n’ai jamais Ă©tĂ© confrontĂ© a ce type de choix.

    les constructeurs de ces machines devraient revoir leurs cours de conduite d’anticipation , conduite dĂ©fensive et prĂ©visionnelle. En clair, s’il y a un risque de se trouver dans une situation dangereuse ,je lĂšve le pied.

  11. Et si 10 pietons se mettent au milieu de laroute car ils savent que la voiture est programmee pour se mettre en l’ air pour les eviter

  12. Les chercheurs doivent s’ orienter vers la protection des occupants du vĂ©hicule.
    Si toutes les voitures sont auto protectrice, tout le monde y trouve son compte!
    Concernant les piétons, ils sont bien sûr la priorité.
    Il faut donc conjuguer une auto-protection optimale des occupants du véhicule avec une protection sans faille des piétons.
    Pour l’option hara kiri une prise en main du vĂ©hicule par le conducteur doit ĂȘtre envisagĂ©e.

  13. Personnellement, j’estime que ce sont ceux qui ont provoquĂ© l’accident, Ă  savoir ceux qui sont en tort d’ĂȘtre « sacrifiĂ©s ».
    Peu importe qu’il s’agisse de braqueurs, d’un groupe de personnes ou d’enfants qui viennent de nulle part en traversant sans avoir prĂ©alablement vĂ©rifiĂ© que la voie Ă©tait libre, ce n’est pas aux occupants d’une voiture d’assumer la responsabilitĂ© de cette faute !

    Ceci dit, il faut convenir du fait qu’une telle situation reste de l’ordre de l’exceptionnel. En gĂ©nĂ©ral, on parvient Ă  Ă©viter un accident en freinant ou en contournant l’obstacle, quitte Ă  ce qu ‘il y ait un peu de taule froissĂ©e. Mais si une voiture autonome est capable d’anticiper les choses, il n’y a pas de raison pour qu’un tel accident arrive.

  14. Le mieux serait de s’inspirer de la nature et d’avoir une solution auto protectrice pour chacun et le hasard fera le reste. Vouloir coder tous les types de scĂ©nario est irrĂ©aliste tellement les variables augmentent exponentiellement.
    De toute façon l’essence mĂȘme de tout systĂšme complexe et de se maintenir en vie et doit se protĂ©ger. Alors si un vĂ©hicule est prĂȘt Ă  sacrifier son conducteur je pense que le conducteur sera prĂȘt Ă  ne ne pas prendre ce risque.
    Laisseriez-vous vos enfants ou les personnes que vous aimez monter dans une voiture qui est prĂȘte Ă  les envoyer dans un mur parce que un algorithme a dĂ©cidĂ© qu’un politicien Ă©tait plus important ?

  15. Il y a plus de 60 ans, Isaac Asimov a envisagĂ© ce type de dilemme et a imaginĂ© les 3 lois de la robotique. C’est intĂ©ressant de voir que cette approche presque philosophique, voire spirituelle (il s’agit de vie ou de mort) resurgisse si longtemps aprĂšs. Au-delĂ  des algorithmes, se pose la question de la relation de l’homme Ă  la machine et au programme, et de la confiance Ă©galement que l’on peut avoir Ă  remettre sa vie entre les mains d’un robot.

  16. Je partage l’avis de Rico; il n’est pas possible de programmer par discrimination, aussi Ă©thique soit-t-elle, car nous entreprendrions alors de classer la valeur de la vie des individus selon leur Ă©chelon social, ce qui est trĂšs dangereux d’un pont de vue Ă©thique!
    Mieux vaut programmer des voitures sécuritaire à basse vitesse et surtout multiplier le transport public!

  17. La question n’est pas Ă  prendre Ă  la lĂ©gĂšre. A mon avis, je pense qu’effectivement le nombre de victimes est le facteur principal, aprĂšs des choses comme le fait que les passagers soient des malfrats n’est pas vraiment quelque chose qu’on peut connaĂźtre Ă  100 %. Enfin, des mesures telle que des personnes importantes soient privilĂ©giĂ©es sur le nombre devraient s’appliquer uniquement par mesure exceptionnelle si cette personne « importante » devait Ă  tout prix rester en vie.

    De toute Ă©vidence, on peut imaginer que ces systĂšmes pourront Ă  long terme ĂȘtre contrĂŽlables Ă  distance par les autoritĂ©s pour des raisons de sĂ©curitĂ© ou pour reprendre le cas des malfrats, les arrĂȘter.

    Tout est question de décisions programmées et de qui a le contrÎle.

    AprĂšs, on peut partir loin. Si dans une voiture il y a un enfant de 11 ans et dans la seconde, un autre enfant de 12 ans, qu’allons-nous faire ? On va sauver le plus jeune ? On ne peut pas dĂ©cider de ces choses-lĂ  Ă  moins d’obtenir encore plus d’informations sur ces deux enfants mais ça en deviendrait inhumain.

  18. Emmanuel Bouillon on

    Je pense surtout que la voiture ne devra pas prendre la dĂ©cision de tuer, sans regarder au nombre de blessĂ©s…

    C’est Ă  dire que la voiture va prĂ©fĂ©rer piler, mais qu’elle ne va pas – activement – prendre une dĂ©cision qui risquerait de blesser d’autres humains, Ă  savoir faire une manƓuvre risquĂ©e pour les occupants ou autre

  19. La voiture a accĂšs aux casiers judiciaires ?!
    Qui Ă  rĂȘver, on peut sacrifier celui qui ne paye pas ses factures, ou puisque la voiture saura tout de son passager, celui qui trompe sa femme…

    Le dernier paragraphe est un peu n’importe quoi…

    Je pense qu’il faudra faire des calculs statistiques (dĂ©nuĂ©s de tout jugement de valeur) et privilĂ©gier les situations qui minimisent le nombre de mort (qui Ă  maximiser le nombre de blesser lĂ©gers…).

  20. Je crois que ce n’est pas bon de livre sa vie entre les nains d’une voiture , qui est dirigĂ© par un systĂšme intelligent car il a Ă©tĂ© dĂ©jĂ  piratĂ© . Et ils le ferrons encore

    • Emmanuel Bouillon on

      Tout systĂšme est piratable. Si quelqu’un veut se dĂ©barrasser de toi, il lui suffirait de saboter tes cables de frein… Pas besoin d’un ordinateur de bord 😉

  21. Et voilĂ  le premier accident mortel d’une voiture semi autonome Tesla les capteurs ne prennent pas en compte une hauteur suffisante pour passer tout le temps. Du coup elle est passĂ©e sous un camion ce qui a arrachĂ© le toit de la tesla et par la mĂȘme la tĂȘte de son conducteur. Les Tesla nous faisaient dĂ©jĂ  tourner la tĂȘte mais voilĂ  qu’elles les font tomber.
    Personnellement j’attendrais que la technologie soit suffisamment mĂ»re pour monter dans un vĂ©hicule de ce type en mode autonome

    • Eric

      Selon les premiers tĂ©moignages, le gars Ă©tait en train de regarder un film. Ce n’est pas l’Autopilot Tesla qui est responsable de l’accident mais la connerie du conducteur.

RĂ©pondre

Send this to friend

Lire les articles précédents :
Xiaomi lance un vélo connecté electrique
Mi QiCYCLE : Xiaomi lance un vélo connecté électrique

Ce n'est pas tous les jours que l'on parle de vélo sur Presse citron, alors quand il s'agit d'un vélo...

Fermer