Voiture autonome : faut-il programmer votre mort ?

Les voitures autonomes semblent être plus prudentes que les humains, mais en cas d’accident, quelle devrait être la réaction de la voiture, vous sauver ou épargner les tiers ? Cruel dilemme auquel devront répondre les développeurs de l’intelligence artificielle qui équipe les voitures intelligentes.

Google Self Driving car voiture autonome véhicule

Le d√©bat est √©thique, pourtant quelque part au cŇďur du code source de l‚Äôintelligence artificielle devront se trouver certains sc√©narios incluant votre mort, pour que les voitures autonomes puissent circuler sur les routes. Trois chercheurs de l’√Čcole d’√©conomie de Toulouse et du MIT ont publi√© une √©tude sur ¬ę Le dilemme social du v√©hicule autonome ¬Ľ.

Une voiture autonome devra sacrifier son conducteur pour sauver des vies

Ils ont confront√© plus de 2000 personnes √† un √©ternel et cruel dilemme : un conducteur doit-il se sacrifier, incluant sa propre mort, pour √©viter de tuer un plus grand nombre de personnes ? Globalement les personnes ayant r√©pondu √† cette question ont naturellement estim√© que ¬ę oui ¬Ľ, un conducteur doit se sacrifier pour √©viter un groupe de 10 pi√©tons par exemple.

En revanche, quand les scientifiques ont pos√© la question d‚Äôune autre mani√®re, en leur demandant s‚Äôils √©taient pr√™ts √† acheter une voiture autonome, programm√©e pour se sacrifier impliquant un risque de mort pour les passagers du v√©hicule, la r√©ponse √©tait moins cat√©gorique. Il semble donc que l‚Äôauto-sacrifice de l‚Äôintelligence artificielle et des occupants du v√©hicule ne soit pas un tr√®s bon argument de vente pour les voitures intelligentes. Les scientifiques ont r√©sum√© leur √©tude, en indiquant : ¬ęLes participants √©taient d’accord avec le fait que les v√©hicules autonomes utilitaristes √©taient les plus moraux, mais pr√©f√©raient pour eux-m√™mes un mod√®le auto-protecteur¬Ľ

Voiture intelligente : qui doit vivre ou mourir ?

Pourtant il sera nécessaire de trancher, car les véhicules devront prendre une décision si un groupe de piétons surgit de nulle part et que le véhicule calcule qu’il est impossible de freiner et que la solution est de provoquer l’accident de la voiture en l’envoyant dans un mur par exemple, ou vers un précipice.

Pour tenter de trouver une solution √† ce dilemme moral, les chercheurs du MIT ont mis en ligne le site ¬ę Moral Machine ¬Ľ, qui confronte les visiteurs √† toutes sortes de situations, afin d‚Äôavoir une vision globale de la question. Avec la d√©mocratisation des objets connect√©s, il sera aussi possible d‚Äôimaginer que les v√©hicules puissent savoir quels passagers occupent un v√©hicule (nombre, √Ęge, importance, √©tats de sant√©, etc.). La voiture autonome pourra donc aussi d√©finir quel doit √™tre le v√©hicule qui encaissera le plus gros du choc de l‚Äôaccident ! En sommes, les d√©veloppeurs de l‚Äôintelligence artificielle devront coder : qui doit vivre ou mourir‚Ķ

Un conducteur doit-il mourir pour sauver un groupe de 5 enfants ? Ce m√™me conducteur doit-il vivre s’il s’agit de 5 braqueurs de banque ? Deux voitures vont avoir un accident frontal, l’une des voitures doit sortir de la route pour percuter un arbre laquelle ? Celle avec 4 d√©linquants √† bord ou celle avec un couple de chirurgiens ? Toutes ces situations devront √™tre int√©gr√©es dans des algorithmes √† l’avenir et les donn√©es collect√©es sur chaque individu depuis des ann√©es, pourraient bien √™tre une fa√ßon de nous donner une valeur aux yeux d’une machine !

La question √©tant lanc√©e, nous serions ravis d’avoir votre opinion √† ce d√©bat important dans les commentaires.

Source

Source 2

34 commentaires

  1. Priorit√© √† celui qui respecte le code de la route, c’est √† dire qui n’a pas d√©lib√©r√©ment pris un risque: c’est bien normal qu’il ait davantage de chances d’avoir la vie sauve que celui qui a choisi de jouer avec sa vie.
    Ça devrait éliminer la grande majorité des dilemmes.
    Ensuite, lorsque les tords sont équitablement partagés, faire le moins de morts possible ne devrait pas déranger grand monde.
    Reste la question des passagers d’un conducteur inconscient. Mais je serais tent√© de dire qu’ils doivent choisir leur conducteur et qu’ils ont g√©n√©ralement la possibilit√© de lui demander de s’arr√™ter pour les d√©poser, surtout lorsqu’ils pourront prendre un taxi sans conducteur, quasiment pas plus cher qu’une voiture personnelle.

    • Ok donc toi, t’es con…
      Parce que oui bien sur : ‘Priorit√© √† celui qui respecte le code de la route’
      Sauf que l’on parle de voiture autonome…
      Donc dans le cas de 2 voitures autonome c’est forcement un agent ext√©rieur qui va provoquer l’accident…

    • « Priorit√© √† celui qui respecte le code de la route »
      A partir du moment o√Ļ il s’agit de voitures autonomes, les deux respectent le code de la route…
      Votre th√©orie tombe √† l’eau. Ou alors j’ai pas bien compris..

      • Donc, √† partir du moment o√Ļ les deux voitures respectent le code de la route, il n’y a pas de raison pour qu’il y ait un accident..

        Donc TOUT L’ARTICLE tombe √† l’eau…

        • Emmanuel Ghesquier
          Emmanuel Ghesquier on

          Euh ! √† partir du moment o√Ļ deux humains respectent le code de la route il n’y a pas d’accident ? donc TOUTE VOTRE R√ČPONSE tombe √† l’eau…

          Plus s√©rieusement, la question mise en avant par l’article ne concerne pas les situations respectant le code de la route, puisque les voitures autonomes ont d√©j√† prouv√© qu’elles √©taient plus prudentes qu’un humain (aucun accident mortel et aucun bless√© depuis le lancement) et juste une poign√©e d’accrochages souvent caus√©s par un conducteur humain qui percute l’arri√®re de la voiture autonome.

          La question concerne les √©l√©ments impr√©visibles ou non d√©tectables par les capteurs permettant une r√©action de la voiture. Exemple : un passage pi√©ton… √† droite trois jeunes, √† gauche une femme avec une poussette. Tous ont le rouge, vous √™tes au vert, les voitures en face aussi. Soudain au moment o√Ļ vous passez √† leur hauteur, un jeune pousse son ami en chahutant… 3 sc√©narios possibles :

          – La Google Car pile (comme un humain), mais avec juste deux 2 m√®tres de distance de freinage, impossible d’√©viter le choc avec le pi√©ton (un bless√© grave ou un mort)
          РDonner un coup de volant brutal dans la direction opposée et freiner (aussi comme un humain), risque de renverser la mère et son bébé (un ou deux blessés graves/morts)
          – changer de file et accepter le choc frontal avec le v√©hicule venant d’en face (pas trop humain comme choix). (plusieurs bless√©s, sans doute l√©gers).

          Dans tous les cas, il risque d’avoir des bless√©s, l’intelligence doit cependant prendre une d√©cision et cela doit se programmer pour choisir l’option la plus logique sur le moment. ici le code de la route est respect√©, c’est l’impr√©visibilit√© d’un √©v√©nement et le faible temps de r√©action disponible qui conduit √† l’accident. Cela n’emp√™che que la voiture autonome va devoir choisir son option selon les informations dont elle disposera et pas continuer son chemin… Il est fort probable dans ce cas de figure que la voiture choisira la troisi√®me option car les d√©g√Ęts mat√©riels surpasseront les d√©g√Ęts humains et que si le v√©hicule en face est une voiture autonome √©galement une alerte instantan√©e d√©clencherait aussi une r√©action de freinage chez celle-ci, anticipant l’√©vitement de l’accident de l’autre voiture. Un humain ne choisirez pas d√©lib√©r√©ment de percuter frontalement un autre v√©hicule.

          L’exemple est un peu tir√© par les cheveux, mais c’est pour montrer que l’article n’a rien √† voir avec le respect du code de la route ou pas, mais bien sur la programmation des options dont disposera l’intelligence artificielle pour r√©agir, incluant sa propre destruction et donc du conducteur pr√©sent √† bord. Le calcul sera d’autant plus complexe si l’on inclut de nouvelles variables par le biais de capteurs (nombre de passagers, √Ęge, √©tat de sant√©, etc.) qui viendraient faire grossir l’√©quation et probablement changerait la d√©cision finale de l’IA.

          • Un conducteur humain anticiperait en voyant les jeunes faire les cons au bord de la route :p

  2. Pour moi c’est simple : jamais je n’ach√®terai une telle voiture, quitte √† prendre les transports en commun.
    Je pr√©f√®re choisir moi m√™me le fait de vivre ou mourir, surtout qu’un pirate pourra toujours faire croire √† la voiture qu’elle est en danger pour provoquer volontairement un accident.

  3. celà va dépendre à qui on a posé la question.
    A Paris, par exemple, les dons d’organes sont en d√©ficit, le plus fort taux de refus de France, mais la plus forte demande en organes.
    En province, c’est le contraire: les gens sont prets √† donner, mais ne sollicitent pas beaucoup le don d’organes, estimant qu’apres avoir use leurs organes il est normal de partir.
    Résultat, la région parisienne aspire les organes de toute la France.
    Pour la voiture autonome, c’est pareil: certains seront pr√™ts √† se sacrifier, d’autres non;
    certains exigeront que l’on se sacrifie pour eux, d’autres non.

    • C√©dric on

      Int√©ressante votre analyse sur le don d’organe.
      Etant professionnel de sant√© en service de r√©animation en province, pourriez vous me citer vos sources que je puisse utiliser votre analyse de la situation du don d’organe en France pour √©tayer nos futurs discussions dans mon service quand un chirurgien parisien viendra nous voler des pr√©cieux organes que nous comptions garder pour des patients indig√®nes…
      Merci d’avance

  4. Faute d’ortografe :
    « les d√©veloppeurs de l‚Äôintelligence artificielle devront cod√©s » -> devront CODER

  5. Pas √©vident de r√©pondre √† ce test, un peu l√©ger d’ailleurs. On se pose toujours la question : est-ce que je les connais, est-ce ma famille, ont-ils une chance de survie si je leur fonce dedans, suis-je certain de mourir si je fonce dans le mur, qui est plus important une femme un voleur une vieille… pour le chat, pas d’h√©sitation bien sur.

    Je ne suis pas apte √† juger de qui doit vivre ou pas et la machine ne l’est sans doute pas plus que moi. D’ailleurs, la machine d√©tectera-t-elle si c’est une vieille ou un gros ou un voleur ?

    Ce test est intéressant et nous fait nous poser des questions sur nous même, mais il est à rendre plus réaliste.

  6. La réponse se trouve dans la jurisprudence.
    Est ce qu’un conducteur serait condamn√© pour avoir heurt√© un groupe de cinq personnes afin d’√©viter un pr√©cipice ?
    La réponse est non !
    La suite a toujours √©t√© diff√©r√©e √† la compagnie d’assurances.
    Le risque est que la voiture soit programm√©e par le constructeur sous influence des assureurs pour que l’indemnisation soit la moins ch√®re possible
    Or pour donner plus de liberté au conducteur, Je pense que cette prise de décision devrait être paramétré par le conducteur sur une interface de la machine.

  7. La r√©ponse me vient spontan√©ment : elle est assez froide mais elle a peut √™tre le m√©rite d’√™tre utile : il y Aura toujours plusieurs crit√®res analys√©s par l’algorithme , et l’un d’eux pourrait √™tre , tout de m√™me , de privil√©gier le v√©hicule qui se pr√©sente sans avoir commis aucune ‘faute’ , ce qui signifie qu’il est dans une configuration normale par rapport aux circonstances . Pourquoi ? Parce que, par d√©finition , le v√©hicule autonome est cens√© respecter absolument toutes les mesures de prudence li√©es aux circonstances , sans parler √©videmment de la r√©glementation sur spot. Et si un √©v√©nement impr√©visible se produit du fait ou par la faute d’√©l√©ments incontr√īl√©s , c’est plut√īt a ces √©l√©ments d’en subir les cons√©quences ?
    Point de vue plut√īt juridique ? Mais qui ne manquera s√Ľrement pas d’√™tre soulev√© par les victimes vivantes ou par l’entourage des personnes d√©c√©d√©es . Jean

  8. C’est ignoble.

    Si comme le suppose l’article les v√©hicules sont connect√©s et peuvent communiquer entre eux, √ßa ne devrait juste pas pouvoir arriver.

    Autrement ? √Čquiper les routes de capteurs pour informer les v√©hicules connect√©s de la pr√©sence d’autres v√©hicules et de pi√©tons ainsi que de leur direction / vitesse. L’IoT et la ville connect√©e sont √† la mode.

    Revoir les limitations de vitesse pour qu’en √©vitant l’autre v√©hicule / pi√©tons le v√©hicule autonome ne puisse pas percuter un obstacle √† trop grande vitesse.

    Verbaliser systématiquement les piétons traversant hors des passages piétons / au feu rouge.

    Ces gens marchent sur la t√™te. √Ä partir du moment o√Ļ cette question se pose c’est qu’ils ont √©chou√©.

      • Emmanuel Bouillon on

        Un pi√©ton en ville est toujours prioritaire (et puis un accident est vite arriver, il suffit qu’on glisse du trottoir, qu’on soit pouss√©…), mais de toutes facons, la faible vitesse devrait permettre de s’arr√™ter √† temps.

        Un pi√©ton sur une voie rapide, c’est de la mise en danger d’autrui (et de soi). La question est donc d√©j√† l√©gif√©r√©e ūüėČ

  9. Le dernier paragraphe rel√®ve de l’utopie absolue…

    La seule solution valable est de programmer les voitures pour r√©agir comme le ferait un √™tre humain : un groupe de gens traverse sans que je l’aie rep√©r√© ? On plante les freins, on ferme les yeux (et on √©teint tous les capteurs) en d√©viant approximativement dans la direction ou y’a le moins de monde dans lequel taper.

  10. cela montre les limites de cette voiture pseudo intelligente. En 40 ans de conduite je n’ai jamais √©t√© confront√© a ce type de choix.

    les constructeurs de ces machines devraient revoir leurs cours de conduite d’anticipation , conduite d√©fensive et pr√©visionnelle. En clair, s’il y a un risque de se trouver dans une situation dangereuse ,je l√®ve le pied.

  11. Et si 10 pietons se mettent au milieu de laroute car ils savent que la voiture est programmee pour se mettre en l’ air pour les eviter

  12. Les chercheurs doivent s’ orienter vers la protection des occupants du v√©hicule.
    Si toutes les voitures sont auto protectrice, tout le monde y trouve son compte!
    Concernant les pi√©tons, ils sont bien s√Ľr la priorit√©.
    Il faut donc conjuguer une auto-protection optimale des occupants du véhicule avec une protection sans faille des piétons.
    Pour l’option hara kiri une prise en main du v√©hicule par le conducteur doit √™tre envisag√©e.

  13. Personnellement, j’estime que ce sont ceux qui ont provoqu√© l’accident, √† savoir ceux qui sont en tort d’√™tre « sacrifi√©s ».
    Peu importe qu’il s’agisse de braqueurs, d’un groupe de personnes ou d’enfants qui viennent de nulle part en traversant sans avoir pr√©alablement v√©rifi√© que la voie √©tait libre, ce n’est pas aux occupants d’une voiture d’assumer la responsabilit√© de cette faute !

    Ceci dit, il faut convenir du fait qu’une telle situation reste de l’ordre de l’exceptionnel. En g√©n√©ral, on parvient √† √©viter un accident en freinant ou en contournant l’obstacle, quitte √† ce qu ‘il y ait un peu de taule froiss√©e. Mais si une voiture autonome est capable d’anticiper les choses, il n’y a pas de raison pour qu’un tel accident arrive.

  14. Le mieux serait de s’inspirer de la nature et d’avoir une solution auto protectrice pour chacun et le hasard fera le reste. Vouloir coder tous les types de sc√©nario est irr√©aliste tellement les variables augmentent exponentiellement.
    De toute fa√ßon l’essence m√™me de tout syst√®me complexe et de se maintenir en vie et doit se prot√©ger. Alors si un v√©hicule est pr√™t √† sacrifier son conducteur je pense que le conducteur sera pr√™t √† ne ne pas prendre ce risque.
    Laisseriez-vous vos enfants ou les personnes que vous aimez monter dans une voiture qui est pr√™te √† les envoyer dans un mur parce que un algorithme a d√©cid√© qu’un politicien √©tait plus important ?

  15. Il y a plus de 60 ans, Isaac Asimov a envisag√© ce type de dilemme et a imagin√© les 3 lois de la robotique. C’est int√©ressant de voir que cette approche presque philosophique, voire spirituelle (il s’agit de vie ou de mort) resurgisse si longtemps apr√®s. Au-del√† des algorithmes, se pose la question de la relation de l’homme √† la machine et au programme, et de la confiance √©galement que l’on peut avoir √† remettre sa vie entre les mains d’un robot.

  16. Je partage l’avis de Rico; il n’est pas possible de programmer par discrimination, aussi √©thique soit-t-elle, car nous entreprendrions alors de classer la valeur de la vie des individus selon leur √©chelon social, ce qui est tr√®s dangereux d’un pont de vue √©thique!
    Mieux vaut programmer des voitures sécuritaire à basse vitesse et surtout multiplier le transport public!

  17. La question n’est pas √† prendre √† la l√©g√®re. A mon avis, je pense qu’effectivement le nombre de victimes est le facteur principal, apr√®s des choses comme le fait que les passagers soient des malfrats n’est pas vraiment quelque chose qu’on peut conna√ģtre √† 100 %. Enfin, des mesures telle que des personnes importantes soient privil√©gi√©es sur le nombre devraient s’appliquer uniquement par mesure exceptionnelle si cette personne « importante » devait √† tout prix rester en vie.

    De toute √©vidence, on peut imaginer que ces syst√®mes pourront √† long terme √™tre contr√īlables √† distance par les autorit√©s pour des raisons de s√©curit√© ou pour reprendre le cas des malfrats, les arr√™ter.

    Tout est question de d√©cisions programm√©es et de qui a le contr√īle.

    Apr√®s, on peut partir loin. Si dans une voiture il y a un enfant de 11 ans et dans la seconde, un autre enfant de 12 ans, qu’allons-nous faire ? On va sauver le plus jeune ? On ne peut pas d√©cider de ces choses-l√† √† moins d’obtenir encore plus d’informations sur ces deux enfants mais √ßa en deviendrait inhumain.

  18. Emmanuel Bouillon on

    Je pense surtout que la voiture ne devra pas prendre la d√©cision de tuer, sans regarder au nombre de bless√©s…

    C’est √† dire que la voiture va pr√©f√©rer piler, mais qu’elle ne va pas – activement – prendre une d√©cision qui risquerait de blesser d’autres humains, √† savoir faire une manŇďuvre risqu√©e pour les occupants ou autre

  19. La voiture a accès aux casiers judiciaires ?!
    Qui √† r√™ver, on peut sacrifier celui qui ne paye pas ses factures, ou puisque la voiture saura tout de son passager, celui qui trompe sa femme…

    Le dernier paragraphe est un peu n’importe quoi…

    Je pense qu’il faudra faire des calculs statistiques (d√©nu√©s de tout jugement de valeur) et privil√©gier les situations qui minimisent le nombre de mort (qui √† maximiser le nombre de blesser l√©gers…).

  20. Je crois que ce n’est pas bon de livre sa vie entre les nains d’une voiture , qui est dirig√© par un syst√®me intelligent car il a √©t√© d√©j√† pirat√© . Et ils le ferrons encore

    • Emmanuel Bouillon on

      Tout syst√®me est piratable. Si quelqu’un veut se d√©barrasser de toi, il lui suffirait de saboter tes cables de frein… Pas besoin d’un ordinateur de bord ūüėČ

  21. Et voil√† le premier accident mortel d’une voiture semi autonome Tesla les capteurs ne prennent pas en compte une hauteur suffisante pour passer tout le temps. Du coup elle est pass√©e sous un camion ce qui a arrach√© le toit de la tesla et par la m√™me la t√™te de son conducteur. Les Tesla nous faisaient d√©j√† tourner la t√™te mais voil√† qu’elles les font tomber.
    Personnellement j’attendrais que la technologie soit suffisamment m√Ľre pour monter dans un v√©hicule de ce type en mode autonome

    • Eric

      Selon les premiers t√©moignages, le gars √©tait en train de regarder un film. Ce n’est pas l’Autopilot Tesla qui est responsable de l’accident mais la connerie du conducteur.

Répondre

Lire les articles précédents :
Xiaomi lance un vélo connecté electrique
Mi QiCYCLE : Xiaomi lance un vélo connecté électrique

Ce n'est pas tous les jours que l'on parle de vélo sur Presse citron, alors quand il s'agit d'un vélo...

Fermer