Passer au contenu

Vidéo. Le FSD de Tesla commet une grave erreur et percute un autre véhicule de pleine face

En Chine, un accident filmé en direct relance les doutes autour des promesses d’autonomie de Tesla. Car derrière le nom flatteur et le discours marketing, la réalité du Full Self-Driving (FSD) est bien différente, à ce stade du moins.

Tesla n’en finit plus de brouiller les lignes entre assistance à la conduite et conduite autonome. Sur le papier, pourtant, le cadre est clair. L’Autopilot comme le Full Self-Driving (FSD) sont des systèmes d’aide à la conduite de niveau 2, selon la classification internationale. Concrètement, cela signifie que la voiture peut gérer simultanément la direction, l’accélération et le freinage, mais uniquement sous la supervision constante du conducteur, qui doit rester attentif et prêt à reprendre le contrôle à tout moment. La responsabilité lui incombe intégralement.

Le problème, c’est que la réalité de l’usage s’éloigne souvent de cette définition très réglementaire. Plus tôt cette année, Tesla a lancé son système Full Self-Driving en Chine, après avoir dû en modifier l’appellation à la demande des autorités locales, jugeant le nom trop trompeur. Comme aux États-Unis, le FSD y reste officiellement un simple assistant. Mais dans les faits, de nombreux propriétaires chinois se sont empressés de tester, et de montrer, ses capacités, en diffusant leurs trajets en direct sur Douyin, le clone local de TikTok.

L’un de ces directs a rapidement viré à la démonstration inverse de celle espérée. À bord de sa Model 3, un utilisateur a vu son véhicule s’engager sur la voie de circulation opposée avant de percuter frontalement une autre voiture. La collision n’a heureusement fait aucun blessé grave, mais elle relance bien entendu le débat.

Un discours parfois flou

Car les images montrent clairement que le Full Self-Driving était activé au moment des faits et qu’il a lui-même initié la manœuvre fatale. Un rappel brutal, mais nécessaire : les systèmes de Tesla ne sont pas autonomes.

Si le constructeur le précise noir sur blanc dans ses conditions d’utilisation, son discours marketing entretient une ambiguïté persistante. Le nom même de « Full Self-Driving » suggère un niveau d’autonomie qui n’existe pas, tandis qu’Elon Musk a récemment affirmé que les conducteurs pouvaient utiliser leur téléphone pendant que le FSD est activé.

Ceci est d’autant plus problématique que l’été dernier, l’Autopilot de Tesla a été reconnu responsable pour la première fois dans un accident mortel. De son côté, la marque multiplie les initiatives pour déployer le Full Self-Driving en Europe, où les régulateurs se montrent beaucoup plus prudents.

  • Le Full Self-Driving de Tesla, récemment lancé en Chine, a provoqué une collision frontale lors d’un trajet diffusé en direct sur les réseaux sociaux.
  • L’accident montre clairement que le système était activé.
  • Entre promesses marketing ambiguës et incidents répétés, Tesla enchaîne les couacs avec son FSD.

📍 Pour ne manquer aucune actualité de Presse-citron, suivez-nous sur Google Actualités et WhatsApp.

Newsletter 🍋

Abonnez-vous, et recevez chaque matin un résumé de l’actu tech