Elon Musk ne cesse par ailleurs de présenter Tesla comme un leader de la conduite autonome, tant sur le marché des robotaxis que pour les véhicules particuliers équipés de son système FSD (Full Self-Driving). Son contrat de rémunération astronomique, estimé à un billion de dollars, repose notamment sur la mise en circulation d’un million de robotaxis Tesla et sur l’acquisition de 10 millions d’utilisateurs actifs du FSD au cours de la prochaine décennie — des objectifs dont la réussite aurait un impact direct sur sa fortune.
Reste à savoir si ces ambitions sont réalistes. Une récente évaluation par Forbes de la dernière version du FSD révèle que le système demeure sujet à des erreurs. Lors d’un essai routier de 90 minutes à Los Angeles — dans des zones résidentielles comme sur autoroute —, un Model Y 2024 équipé du tout dernier matériel et logiciel Tesla (Hardware 4, FSD version 13.2.9) a ignoré certains panneaux standards et plusieurs limitations de vitesse ; il n’a pas ralenti à un passage piéton pourtant signalé par un panneau clignotant avec piétons présents ; il a multiplié les changements de voie inutiles et accéléré au mauvais moment, notamment en quittant une autoroute encombrée qui se terminait sur un feu rouge. Plus inquiétant encore, rien n’indique que l’entreprise ait corrigé un problème relevé il y a déjà deux ans : l’incapacité du système à s’arrêter face à un panneau clignotant annonçant le passage imminent d’un bus scolaire.
En réalité, cette fonctionnalité, récemment rebaptisée « Full-Self Driving (Supervised) », cumule tant de problèmes évidents qu’une question s’impose : comment un service facturé 8 000 dollars, ou proposé en abonnement à 99 dollars par mois, peut-il encore être légal dans sa version actuelle ?
La réponse, en fait, est assez simple : « Les systèmes d’aide à la conduite ne sont pas réglementés, il n’y a donc aucun problème de légalité », explique Missy Cummings, professeure à l’université George Mason et spécialiste de l’intelligence artificielle, qui a conseillé la National Highway Traffic Safety Administration (NHTSA) sur les véhicules autonomes. « La NHTSA dispose du pouvoir d’intervenir, mais jusqu’à présent, elle ne l’a fait que dans les cas de mauvaise surveillance des conducteurs. »
Panneaux « Route fermée » et « Sens interdit »
Neuf ans après la mort de Joshua Brown — premier conducteur connu à avoir perdu la vie dans un accident impliquant le logiciel Autopilot de Tesla, en mai 2016 —, les régulateurs américains n’ont toujours pas défini de règles claires encadrant les technologies dites d’assistance de niveau 2, catégorie à laquelle appartient le FSD. À ce jour, la seule exigence fédérale explicite est la présence d’un dispositif de surveillance du conducteur dans l’habitacle, destiné à garantir qu’il reste attentif aux conditions de circulation.
Cette zone grise réglementaire laisse à Musk le champ libre pour promouvoir le FSD, lancé en 2020, comme une solution de conduite « pratiquement autonome » nécessitant une intervention humaine « minimale », selon l’affichage embarqué. Or, son adoption à grande échelle représente un enjeu directement lié à la rémunération future du dirigeant — et potentiellement très lucratif.
Le mois dernier, la NHTSA a ouvert une enquête sur l’absence de signalement en temps voulu des accidents impliquant le FSD et l’Autopilot. L’agence rappelle toutefois qu’elle « n’approuve pas à l’avance les nouvelles technologies ou les nouveaux systèmes embarqués ». La responsabilité incombe aux constructeurs automobiles de certifier que leurs véhicules et technologies respectent les normes fédérales de sécurité. Et si une enquête démontre qu’un système présente un danger, « la NHTSA prendra toutes les mesures nécessaires pour protéger la sécurité routière », a assuré un porte-parole.
Les déclarations de Musk sur les capacités du FSD, en revanche, manquent de nuances : « La conduite autonome de Tesla améliore considérablement votre qualité de vie et votre sécurité pendant les milliers d’heures que vous passez dans une voiture. » L’entreprise met aussi en avant des vidéos vantant des performances apparemment impeccables lors de trajets sur route. Mais face aux régulateurs, Tesla adopte un ton beaucoup plus prudent. « Tesla décrit ses systèmes comme une automatisation partielle de niveau 2 (y compris le “FSD Supervised”), nécessitant à tout moment un conducteur pleinement attentif et impliqué », a précisé la NHTSA.
La technologie de Tesla fait l’objet d’une surveillance accrue après plusieurs revers juridiques, notamment le lancement d’un recours collectif fédéral par des propriétaires de Tesla contre M. Musk pour ses déclarations exagérées concernant le FSD et l’Autopilot, et les efforts du DMV californien pour empêcher l’entreprise d’utiliser ces noms pour ses fonctionnalités dans cet État. Le jury d’un procès fédéral en Floride a également déterminé le mois dernier que Tesla était partiellement responsable d’un accident mortel survenu en 2019 alors que sa fonction Autopilot était activée, et lui a ordonné de verser 243 millions de dollars de dommages et intérêts. L’entreprise fait appel du verdict ; elle a réglé deux autres procès la semaine dernière concernant des accidents en Californie liés à l’Autopilot, qui dispose de fonctions d’aide à la conduite plus limitées que le FSD.
La société basée à Austin mène également un projet pilote de robotaxis dans sa ville d’origine pour un nombre limité de propriétaires de Tesla qui paient une somme modique pour l’utiliser. La version du FSD qu’elle utilise comporte de légères modifications par rapport à celle proposée aux clients, mais elle n’a pas donné de détails à ce sujet. Depuis le lancement du service en juin, Tesla a rencontré un certain nombre de problèmes, notamment trois accidents signalés en une seule journée en juillet.
Contrairement à Waymo, qui exploite ses robotaxis en mode entièrement autonome dans plusieurs villes américaines, un conducteur de sécurité est actuellement présent à l’avant pour surveiller les performances du FSD.
D’après un recensement établi par TeslaDeaths.com à partir d’articles de presse, 59 personnes ont déjà perdu la vie dans des accidents impliquant l’Autopilot ou le FSD. Musk et Tesla n’ont pas répondu aux sollicitations concernant les problèmes de sécurité liés au FSD, mais une nouvelle mise à jour du logiciel est attendue prochainement.
Panneau clignotant pour piétons
Forbes a récemment testé pendant 90 minutes la dernière version du FSD de Tesla, mise à jour le 28 août, à bord d’un Model Y 2023 équipé du matériel le plus récent. Le véhicule appartenait au Dawn Project, une organisation fondée par le développeur de logiciels Dan O’Dowd, devenu l’un des détracteurs les plus virulents du FSD. Ces dernières années, il est même allé jusqu’à financer de sa poche des publicités diffusées lors du Super Bowl pour alerter le grand public sur les failles du système.
« Dans sa forme actuelle, ce n’est même pas une version bêta. C’est un produit de niveau alpha. Il ne devrait jamais être entre les mains des clients », a déclaré O’Dowd à Forbes. « Ce n’est qu’un prototype, pas un produit. »
À l’usage, le FSD peut donner l’illusion d’un véritable système de conduite autonome. On entre une adresse et la voiture démarre sans difficulté en mode mains libres. Elle négocie les virages, s’arrête aux feux et aux panneaux stop, et semble analyser son environnement grâce aux images virtuelles affichées sur l’écran central. Mais en pratique, la fréquence des erreurs — même par beau temps et sur des routes dégagées, en particulier en milieu urbain — impose au conducteur de rester extrêmement attentif et prêt à reprendre la main à tout moment. Résultat : pour un conducteur prudent, l’expérience n’est ni plus simple ni plus reposante qu’avec une conduite entièrement humaine.
Il y a deux ans, le Dawn Project de Dan O’Dowd avait soumis le FSD à un test simple : une Tesla face à un bus scolaire arrêté. À l’approche du véhicule, un panneau lumineux « Stop » s’est déployé sur le côté du bus, signalant aux conducteurs qu’ils devaient marquer l’arrêt pour laisser passer les enfants en toute sécurité. Résultat : la Tesla n’a pas obéi. À chaque tentative, elle a ignoré le signal, sans même ralentir lorsqu’un mannequin de la taille d’un enfant traversait devant elle.
Ce mois-ci, Forbes a reproduit l’expérience. Même scénario, même échec : la Tesla ne s’est pas arrêtée au panneau et a de nouveau renversé « Timmy », le mannequin du Dawn Project.
Peu après, nous avons refait le test, cette fois avec une Waymo commandée directement via son application. Le contraste était frappant : la voiture s’est arrêtée net devant le panneau, n’a pas bougé tant qu’il n’était pas replié et n’a pas touché le mannequin.
Panneau d’arrêt de bus scolaire et Timmy
« Nous avons signalé le problème du bus scolaire Tesla il y a plus de deux ans, mais ils n’ont rien fait », déclare Dan O’Dowd. « Nous avons publié une annonce d’une page entière dans le New York Times. Puis nous avons diffusé une publicité pendant le Super Bowl pour le montrer… Mais Tesla n’a rien fait. »
Et les panneaux clignotants des bus scolaires ne sont pas les seuls à poser problème. Selon certains propriétaires, le FSD semble également ignorer les passages à niveau lorsque la barrière se baisse et que les feux clignotent. Les rapports de dysfonctionnements inquiétants sont fréquents. Un propriétaire a raconté que sa Tesla Model 3, équipée du FSD version 13.2.9, s’était soudainement arrêtée au milieu d’un virage à gauche non protégé, alors qu’un véhicule arrivait en sens inverse.
« Une voiture fonçait sur moi à environ 70 km/h, et j’étais arrêté, à moitié sur sa voie », écrit-il sur le forum Tesla Motors Club. « J’ai rapidement appuyé sur l’accélérateur pour passer outre le FSD… et là, surprise : la voiture a reculé brusquement ! » Heureusement, le véhicule a évité l’accident, et personne ne se trouvait derrière lui. Le propriétaire est toutefois ressorti de cette expérience très secoué.
Dans son évaluation, le critique automobile et chercheur Edmunds souligne que le logiciel FSD a certes progressé, mais qu’il reste touché par des problèmes « gênants ». « Il ne corrige pas sa trajectoire pour éviter de petits obstacles sur la route, comme des animaux morts, des débris ou des nids-de-poule », explique-t-il. « Ce n’est déjà pas idéal, mais le pire, c’est que le FSD réagit mal lorsque le conducteur prend le contrôle pour effectuer ces corrections. Il suffit de tourner légèrement le volant pour éviter un obstacle, et tout le système se coupe brusquement. » Edmunds ne recommande donc pas aux clients de payer 8 000 dollars pour le FSD dans sa version actuelle.
Les difficultés du FSD à éviter les débris ont également posé de sérieux problèmes à deux influenceurs Tesla tentant de tenir la promesse de Musk en 2016 : traverser les États-Unis en mode autonome. À peine 95 kilomètres après avoir quitté San Diego, leur nouveau Model Y a percuté un gros objet métallique au milieu de la voie sur l’autoroute, provoquant de graves dommages au soubassement, comme le montre une vidéo publiée par l’un des influenceurs, Bearded Tesla Guy.
Ni Consumer Reports ni l’Insurance Institute for Highway Safety (IIHS), dont les évaluations influencent fortement l’industrie automobile et les régulateurs, n’ont encore publié d’évaluation détaillée du FSD. Un rédacteur de Consumer Reports a néanmoins déclaré dans un récent podcast que son expérience avec le FSD était « raisonnablement bonne ». En revanche, l’IIHS juge que les fonctions d’alerte au conducteur de Tesla pour le FSD restent médiocres.
La NHTSA a le pouvoir d’émettre un avis d’« arrêt de vente » aux constructeurs automobiles lorsqu’elle identifie des problèmes de sécurité importants concernant certains modèles ou fonctionnalités. En 2016, elle a adressé une lettre d’« ordonnance spéciale » à la start-up Comma.ai au sujet d’un dispositif après-vente que la société commercialisait pour automatiser partiellement la conduite de certaines voitures. Cette intervention a conduit Comma.ai à suspendre la commercialisation de l’appareil à l’époque.
Selon M. O’Dowd, la NHTSA devrait adopter une approche similaire vis-à-vis du FSD, mais il reste incertain qu’elle le fasse. Pour le moment, le projet Dawn fournit à des responsables publics — tels que le procureur général de Californie Rob Bonta et le représentant américain Salud Carbajal — des évaluations de conduite comparables à celles publiées par Forbes, afin de mettre en évidence les limites de cette fonctionnalité. Le projet est financé par Green Hills Software, une entreprise historiquement fournisseur de logiciels pour le département de la Défense des États-Unis et les constructeurs aéronautiques. Bien que M. O’Dowd n’ait pas précisé le budget actuel, il a affirmé qu’il était « substantiel ».
« Une entreprise pharmaceutique n’oserait jamais prétendre qu’un médicament est un remède universel contre le cancer alors qu’il ne guérit pas réellement la maladie. Personne ne ferait ça : vous seriez poursuivi, condamné à une lourde peine, et privé de tous vos biens », a déclaré M. O’Dowd. « Mais Musk le fait quotidiennement, parce qu’aucune autorité gouvernementale n’intervient. Aucun organisme de régulation ne prend de mesures à ce stade. C’est en partie pour cela que nous existons. »
Mark Rosekind, ancien directeur de la sécurité chez Zoox, développeur de robotaxis, et administrateur de la NHTSA en 2016 lors du premier accident mortel impliquant le pilote automatique de Tesla, estime qu’il est indispensable de combiner de nouvelles réglementations pour des technologies comme le FSD avec une validation réalisée par des experts externes.
« Si l’on veut réellement garantir la sécurité, la transparence et la confiance dans les véhicules autonomes, il faudra renforcer et améliorer les structures fédérales en adoptant des approches véritablement innovantes », a-t-il expliqué à Forbes. Cela passe notamment par « des programmes complémentaires, indépendants et neutres, menés par des tiers… avec certaines exigences que les constructeurs devront satisfaire pour démontrer la sécurité. Une transparence totale, capable d’instaurer la confiance. »
Un article de Alan Ohnsman pour Forbes US – traduit par Lisa Deleforterie
À lire également : Jugé irréalisable par les constructeurs, le plan de l’UE sur la fin des ventes de voitures thermiques en 2035 pourrait être revu

Abonnez-vous au magazine papier
et découvrez chaque trimestre :
- Des dossiers et analyses exclusifs sur des stratégies d'entreprises
- Des témoignages et interviews de stars de l'entrepreneuriat
- Nos classements de femmes et hommes d'affaires
- Notre sélection lifestyle
- Et de nombreux autres contenus inédits