Passer au contenu

Ce test alarmant de la Tesla Model Y ravive la peur autour des voitures autonomes (vidéo)

Encore une vidéo qui risque de discréditer un peu plus Tesla.

S’il y a bien un constructeur automobile qui se passerait d’une mauvaise publicité en ce moment, c’est bien Tesla. Entre la chute de ses ventes (que ce soit dans l’Hexagone ou en Europe), la souillure de son image de marque à cause des comportements de son dirigeant mégalomane qui affectent directement ses performances… le ciel n’a jamais été aussi assombri pour l’entreprise américaine.

L’univers a décidé qu’il fallait en repasser une couche : à Austin (Texas), une Tesla Model Y équipée du FSD (Full Self Driving) a lamentablement échoué à une épreuve tout à fait basique. Mauvais timing pour Tesla, qui s’apprête à lancer dans peu de temps son robotaxi, le Cybercab, 100 % autonome.

FSD : Fausse Sécurité Délibérée ?

Le test en question a été organisé par The Dawn Project, avec le soutien des collectifs Tesla Takedown (les méchants terroristes selon Trump) et ResistAustin. Un détail non négligeable : le fondateur de Dawn, Dan O’Dowd, est aussi à la tête d’une entreprise qui développe un concurrent direct du logiciel FSD. Une information que Tesla n’a pas manqué de souligner pour discréditer le test.

Que s’est-il passé lors de l’expérimentation ? La Model Y a été placée dans une situation urbaine que l’on pourrait malheureusement qualifier de « classique » (voir ci-dessous). Elle roulait à environ 35 km/h sur une route située visiblement dans une zone pavillonnaire, puis a croisé un bus scolaire sur sa gauche, dont les clignotants étaient activés. Une configuration routière loin d’être complexe : pas d’intersections à gérer, un trafic faible, pas d’obstacles étranges sur la route, etc.

Une fois arrivée à sa hauteur, surgit de derrière un autre véhicule un mannequin représentant un enfant, comme si celui-ci allait rejoindre en courant le bus à l’arrêt en traversant la route.

Logiquement, le FSD aurait dû le détecter, mais on voit clairement sur la tablette centrale du véhicule que ce n’est pas le cas, et il l’a donc percuté de plein fouet. Pire encore : la voiture redémarre presque immédiatement après le choc, en roulant sur le mannequin. Le test a été réitéré huit fois, et à chaque fois, le même résultat.

Certes, officiellement, le FSD est encore classé comme une assistance supervisée. Tesla insiste sur un point : même avec le mode FSD activé, le conducteur reste pleinement responsable. L’interface du véhicule affiche des alertes régulières rappelant qu’une vigilance constante est requise, sous peine de désactiver le système. Ce que la marque appelle « Full Self-Driving (supervised) » n’a donc d’autonome que le nom, pour l’instant.

Parlons de sa dénomination même, qui ne fait qu’alimenter la confusion. Tesla promet littéralement une « conduite entièrement autonome », mais avertit tout de même que le conducteur doit rester maître de la voiture à tout moment. Comment discuter d’autonomie quand le système ne peut pas éviter des erreurs aussi élémentaires que celles présentées dans la vidéo ?

Cybercab ou Cyberblague ?

Comme expliqué en introduction, Tesla est sur le point de lancer son fameux Cybercab, sans volant ni pédales. Il est censé entrer en service à partir du 22 juin, toujours à Austin. Sachant que son bon fonctionnement repose entièrement sur la fiabilité du FSD, il y a de quoi se poser sincèrement des questions sur la viabilité du lancement.

Elon Musk, pour une fois, s’est montré réceptif aux critiques et a déclaré sur X qu’il faisait preuve d’une « paranoïa extrême sur la sécurité » et a déjà évoqué un possible report de la date. Dans cette même publication, il a expliqué : « La toute première Tesla à parcourir de manière autonome le trajet de l’usine jusqu’au domicile d’un client le fera le 28 juin ». S’il était vraiment si paranoïaque et terrifié par les risques, ne serait-il pas plus intelligent de ne pas confier une telle mission à un logiciel qui confond un enfant avec un ralentisseur ?

Ici, le problème n’est pas tant que le FSD échoue encore, c’est un système encore en développement. C’est que Tesla continue à en faire la promotion comme s’il était prêt à se confronter à l’épreuve de la rue. Sauf, que même aux États-Unis, la route n’est pas un laboratoire et les essais publics ne peuvent pas être des prototypes roulants. Confier la route à un système incapable de reconnaître un enfant ou un bus scolaire, c’est jouer à la roulette avec des vies humaines. L’argumentaire de l’entreprise vis-à-vis de la responsabilisation du conducteur est un raccourci très commode à emprunter. Il permet de vanter l’autonomie tout en se défaussant de toute responsabilité juridique en cas d’échec : une vision très Muskienne de l’éthique.

  • Lors d’une démonstration à Austin au Texas, une Tesla Model Y a percuté huit fois d’affilée un mannequin représentant un enfant sans détecter l’arrêt d’un bus scolaire.
  • Le système de conduite autonome (« Full Self-Driving ») était pourtant activé, mais n’a jamais identifié l’obstacle comme étant une menace.
  • Tesla continue toutefois à présenter ce logiciel comme prêt pour une voiture sans conducteur, malgré ses échecs flagrants.

📍 Pour ne manquer aucune actualité de Presse-citron, suivez-nous sur Google Actualités et WhatsApp.

Newsletter 🍋

Abonnez-vous, et recevez chaque matin un résumé de l’actu tech