Les controverses autour des dispositifs de conduite autonome ne cessent de s’auto-alimenter au gré des incidents ou accidents – parfois dramatiques – dont ils seraient à l’origine.
L’un des sinistres les plus graves de ces dernières années est certainement celui dont avait été victime Walter Huang, un ingénieur de 38 ans, en mars 2018, quand l’infortuné conducteur décédait des suites d’un accident survenu pendant un trajet à bord de sa Tesla Model X. Cette dernière avait percuté de plein fouet un muret de séparation sur une voie express de la Silicon Valley alors que l’Autopilot de la voiture était activé.
Après une enquête approfondie, il ressortait que l’accident avait été provoqué par le fait que le muret de séparation était discontinu sur quelques dizaines de mètres à l’endroit de l’impact, suite à un précédent accident survenu quelques jours plus tôt. Le système de pilotage automatique de la Tesla – voyant la voie libre et non délimitée sur sa gauche – avait interprété cette rupture de séparation comme un virage à gauche, conduisant la voiture à s’engouffrer brutalement sur cette fausse piste, puis à s’empaler sur le muret à l’endroit où il reprenait. Le plus dramatique dans l’histoire étant peut-être que le conducteur s’était plaint à ses amis et à sa famille du fait que le pilote automatique du véhicule avait déjà dévié de la même façon lors d’un trajet précédent.
Les propriétaires de Tesla savent que l’Autopilot (très mal nommé) de leur voiture nécessite une vigilance de tous les instants, et qu’il n’est pas question de lui laisser les commandes en toute autonomie, ce qui est de toute façon impossible puisque le système impose de poser les mains sur le volant toutes les 15 secondes et d’exercer un léger mouvement sur celui-ci pour montrer à la voiture que l’on est toujours aux commandes. Dans le cas contraire, l’écran se met à clignoter avec un halo bleu, puis une alarme stridente ralentit, et s’il n’y a toujours aucune réaction du chauffeur, la voiture finit par ralentir progressivement, puis allume ses warnings et s’arrête sur le côté de la route. Il existe également nombre de témoignages faisant état de “phantom braking“, ces moments où la voiture en mode pilotage automatique freine brutalement toute seule parce-quelle a mal identifié ce qu’elle considère comme un obstacle sur la voie (une ombre de pont, ou une voiture arrivant en face ans une courbe par exemple). Gênant à 130 sur autoroute chargée…
En autopilot, mais pas en roue libre…
A l’issue des investigations relatives à cet accident, le National Transportation Safety Board (conseil national de la sécurité des transports américain) a mené une audience le 25 février 2020 et a livré ses conclusions. Selon lui, le sinistre est (comme souvent) le résultat de plusieurs causes et évènements qui se sont accumulés, dans ce que l’on appelle un scénario d’accident. Ainsi, la première raison retenue concerne les limitations du système de pilotage automatique Tesla, puis vient ensuite la confiance excessive du conducteur dans celui-ci, et enfin le manque de concentration et d’attention du conducteur, qui était probablement occupé par un jeu sur son téléphone portable. Chacun pourra établir selon sa perception des choses sa propre hiérarchie des éléments, et certains jugeront probablement que c’est le conducteur qui est le premier responsable de l’accident.
Cela étant, il a bien été établi que le contrôle inefficace de l’engagement des conducteurs du véhicule Tesla a contribué à ce drame, car la voiture a laissé trop de latitude à son conducteur, ne l’incitant pas à reprendre le contrôle dans un délai raisonnable.
Mais l’infrastructure est – comme trop souvent, hélas – aussi en partie responsable de la gravité du choc puisqu’il a été également constaté que Walter Huang aurait pu survivre si un dispositif d’amortissement et de protection avait été installé à l’extrémité de la rambarde. Toujours est-il que le président du NTSB, Robert Sumwalt est formel : “Ce qui m’a le plus frappé dans les circonstances de cet accident, c’est l’absence de garde-fous dans les systèmes pour prévenir les abus prévisibles de la technologie. Cette voiture est dotée d’une automatisation de niveau deux, ce qui signifie qu’elle ne pouvait se conduire que dans certaines conditions et, surtout, qu’un conducteur attentif doit superviser l’automatisation à tout moment, prêt à en prendre le contrôle”.
“Il n’y a pas un seul véhicule actuellement disponible pour les consommateurs américains qui soit à conduite autonome.”
Ajoutant une pique à l’attention des régulateurs gouvernementaux, qui ont selon lui “assuré une surveillance insuffisante, en ignorant les recommandations de ce conseil pour la sauvegarde du système”.
Et de conclure, de façon assez radicale : “L’industrie continue à mettre en œuvre la technologie de telle manière que des personnes peuvent être blessées ou tuées, ignorant les recommandations de ce conseil destinées à les aider à prévenir de telles tragédies. Il n’y a pas un seul véhicule actuellement disponible pour les consommateurs américains qui soit à conduite autonome. Point final.
S’il est établi que Tesla n’est pas l’unique responsable de cet accident, Robert Sumwalt n’est pour autant pas spécialement tendre à l’égard du constructeur californien, déclarant que deux recommandations avaient été faites en 2017 à six constructeurs concernant l’utilisation inappropriée des systèmes d’automatisation de la conduite. Cinq d’entre eux avaient répondu positivement mais Tesla “les avait ignorés” : “Cela fait 881 jours que ces recommandations ont été envoyées à Tesla. Nous attendons toujours”.
Il faut savoir que le NTSB ne peut qu’émettre des recommandations, et qu’il incombe à la National Highway Traffic Safety Administration de réglementer la sécurité des véhicules.
Tesla n’a pas réagi officiellement pour le moment.
📍 Pour ne manquer aucune actualité de Presse-citron, suivez-nous sur Google Actualités et WhatsApp.
Deferlante de fanboys en vue pour defendre leur secte envers et contre tout
Le mec a été prévenu par le manuel d’utilisation.
Le mec a été prévenu lors d’une 1ère défaillance du système au même endroit.
Le mec a été prévenu par les divers cas mettant en évidence le fait de rester vigilants.
Le mec a été prévenu au minimum 3 fois.(les sommations a l’armée c’est trois avant de tirer)
Le mec est con.
Le mec est mort,sélection naturelle.