(Ajoute des détails de la plaidoirie de Tesla aux paragraphes 9-10, 13-14) par Dan Levine et Hyunjoo Jin
Un avocat qui poursuit Tesla pour un accident mortel a cité une analyse de sécurité interne menée par l'entreprise qui a montré qu'elle était au courant d'un dysfonctionnement de la direction dans sa fonction d'aide à la conduite Autopilot environ deux ans plus tôt.
Cette révélation a été faite lors des plaidoiries finales mardi devant un tribunal de l'État de Californie dans le cadre du premier procès américain sur les allégations selon lesquelles Autopilot a conduit à un décès. Les plaignants cherchent à obtenir une récompense combinée de 400 millions de dollars de la part du jury, sans compter les dommages-intérêts punitifs. L'issue du procès pourrait contribuer à façonner des affaires similaires à travers le pays.
La poursuite civile allègue que le système Autopilot a causé la Model 3 du propriétaire Micah Lee de dévier soudainement d'une autoroute à l'est de Los Angeles à 65 miles par heure (105 km par heure), de frapper un palmier et de s'enflammer, le tout en l'espace de quelques secondes.
L'accident de 2019 a tué Lee et grièvement blessé ses deux passagers, y compris un garçon de 8 ans qui a été éventré, selon des documents judiciaires. Le procès, intenté contre Tesla par les passagers,affirme que l'Autopilotétait défectueux.
Tesla a nié toute responsabilité, affirmant que Lee avait consommé de l'alcool avant de prendre le volant. Le constructeur de véhicules électriques affirme également qu'il n'était pas clair si l'Autopilot était activé au moment de l'accident.
Tesla a testé et déployé son système Autopilot et son système plus avancé de conduite autonome (FSD), que le directeur général Elon Musk a présenté comme crucial pour l'avenir de son entreprise, mais qui a fait l'objet d'un examen réglementaire et juridique minutieux.
Jonathan Michaels, qui représente les passagers, a montré aux jurés une analyse de sécurité interne de Tesla datant de 2017, identifiant la "commande de direction incorrecte" comme un défaut, impliquant un angle de volant "excessif".
"Ils ont prédit que cela allait se produire. Ils étaient au courant. Ils l'ont nommé", a déclaré M. Michaels. Tesla a mis au point un protocole pour traiter avec les clients qui en ont fait l'expérience, a-t-il ajouté, et a demandé à ses employés de n'accepter aucune responsabilité pour ce problème.
Michael Carey, avocat de Tesla,a déclaré que l'analyse de sécurité n'identifiait pas un défaut, mais visait plutôt à aider l'entreprise à résoudre tout problème qui pourrait théoriquement survenir avec le véhicule. Le constructeur automobile a par la suite conçu un système qui empêche l'Autopilot d'exécuter le virage qui a provoqué l'accident.
Ce système de sécurité, a déclaré M. Carey, "est un mur de briques qui s'oppose à la demande des plaignants", notant qu'aucune autre voiture Tesla ne s'est comportée comme le véhicule l'a fait dans cet accident.
M. Michaels a soutenu que Tesla avait lancé Autopilot à un stade expérimental parce que l'entreprise avait désespérément besoin d'augmenter sa part de marché.
"Ils n'avaient aucune considération pour la perte de vies humaines", a-t-il déclaré.
Carey a rétorqué que l'explication la plus simple de l'accident était l'erreur humaine, et a demandé aux jurés de ne pas accorder de dommages-intérêts uniquement en raison des graves blessures des victimes .
"L'empathie est une chose réelle, nous ne disons pas le contraire", a déclaré M. Carey. "Mais cela ne rend pas les voitures défectueuses

0 commentaire
Vous devez être membre pour ajouter un commentaire.
Vous êtes déjà membre ? Connectez-vous
Pas encore membre ? Devenez membre gratuitement
Signaler le commentaire
Fermer