Si quelque chose ne va pas, cherchez d’abord à reporter la faute sur l’utilisateur. Il semblerait que ce soit la stratégie récemment adoptée par Elon Musk, le PDG de Tesla.

Mercredi soir, Tesla Motor a émit un communiqué annonçant que l’entreprise se retirait de l’enquête du conseil national américain de la sécurité des transports (NTSB ou National transportation security board) portant sur l’accident impliquant un SUV de la marque Tesla datant du mois de mars et ayant coûté la vie à Walter Huang, près de Mountain View en Californie.


L’entreprise a également publiquement déclaré, à la suite d’une série de commentaires sur l’accident en question, que Walter Huang était responsable de l’accident. Tesla s’est alors attiré les foudres du NTSB.

Comme vous le diront tous les constructeurs automobiles, l’alcool, les drogues ou le non respect des limitations de vitesse provoquent des centaines de morts et des milliers de blessés sur les routes, chaque année. Mais les accidents sont parfois causés par autre chose. « Lorsque je travaillais à l’administration de la sécurité des autoroutes nationales, et que j’avais affaire à Tesla, l’entreprise partait toujours du principe que les entités légales ayant pour but de protéger les citoyens n’avaient pas valeur d’autorité sur elle », explique David Friedman, directeur de l’analyse des politiques de sécurité routière pour Consumers Union (une association de consommateurs). « Tesla ne dispose pas de passe-droit, à ce que je sache ».

Dans son communiqué, Tesla explique que le NTSB a demandé à l’entreprise de ne dévoiler aucune information concernant son Autopilot durant plus d’un an. L’entreprise a jugé cette demande irrecevable. « Bien que nous ne participions plus officiellement à l’enquête, nous continuerons de fournir une assistance technique au NTSB », précise le communiqué.

Mais, selon Bloomberg, le président du NTSB, Robert Sumwalt, a expliqué à Elon Musk, que Tesla ne faisait plus partie des acteurs officiels de l’enquête pour avoir, en autre, incriminé la victime. Que Tesla se soit retiré ou qu’on lui en ait intimé l’ordre, le NTSB ne sera pas obligé de partager les résultats de son enquête avec le constructeur automobile avant de les publier. Dans ce cas, le seul outil de relation publique dont disposera Elon Musk sera son compte Twitter.

Le NTSB a confirmé en début de semaine que Tesla prenait part à deux autres enquêtes concernant des accidents impliquant des véhicules de la marque, notamment sur une batterie ayant pris feu à Lake Forest en Californie en août 2017, à la suite d’une collision. 

En mai 2016, Josh Brown est décédé en Floride à la suite d’une collision avec un camion alors que le mode de conduite assistée « Autopilot » était enclenché. Alors que le NTSB a déclaré Josh Brown responsable de l’accident étant donné qu’il n’avait pas gardé ses mains sur le volant, le conseil a ensuite accusé Tesla de vendre des véhicules dotés d’un système n’étant pas fiable à 100 %.

Tesla ne semble pas comprendre que cela ne suffit pas de simplement mentionner dans un manuel que le conducteur devrait toujours rester concentrer même lorsque le système de conduite semi-autonome est enclenché. Surtout si vous avez appelé ce système « Autopilot » et que vous vous vantez qu’il s’agit du système le plus performant du marché. 

Tesla aurait donc desservi ses clients en annonçant que l’Autopilot pourrait un jour devenir complètement autonome.

« Tesla doit arrêter de mettre à disposition de ses consommateurs des versions bêta de logiciels », explique Sam Abuelsamid, analyste en chef pour Navigant Research. « On peut douter du consentement fourni par les consommateurs pour participer aux essais de ce programme sur la voie publique. Je pense que la grande majorité de ces conducteurs n’ont pas idée de ce qu’est réellement ce logiciel et qu’ils sont en fait en train de le tester ». Sean Kane, responsable de la recherche et des stratégies en matière de sécurité chez Rehoboth, Mass, pense que Tesla a exagéré les capacités de son Autopilot : « Cette entreprise cherche toujours à reporter la responsabilité sur les autres. Mais les technologies qui ne sont pas entièrement autonome devraient être présentées comme telles ».

Tesla a également fait croire que la maintenance et les mises à jour des véhicules peuvent être effectuées grâce à des patchs logiciels reçus automatiquement.

Le mois dernier, quelques jours après l’accident de Mountain View, Tesla a annoncé devoir rappeler 123 000 Model S construites avant avril 2016, afin de pouvoir remplacer les boulons du système de direction assistée car ils pourraient subir « une corrosion excessive » lorsque les routes sont salées en hiver.