Le constructeur automobile américain Tesla Inc TSLA.O a déclaré lundi qu'il avait une "obligation morale" de continuer à améliorer son système d'aide à la conduite Autopilot et de le mettre à la disposition d'un plus grand nombre de consommateurs, sur la base de données qui ont montré des mesures de sécurité plus solides lorsqu'il était activé.
En réponse à une enquête du Washington Post sur des accidents graves impliquant Autopilot sur des routes où la fonction ne pouvait pas fonctionner de manière fiable, la société a déclaré ses données ont montré qu'elle sauvait des vies et évitait des blessures.
Le rapport du Post indique que le journal a identifié au moins huit accidents entre 2016 et 2023 où l'Autopilot a pu être activé dans des situations pour lesquelles il n'a pas été conçu, et affirme que Tesla a pris peu de mesures définitives pour restreindre son utilisation par la géographie, bien qu'elle ait la capacité technique de le faire.
L'Autopilot est "destiné à être utilisé sur des autoroutes à accès contrôlé" avec "un séparateur central, des marquages de voies clairs et pas de trafic transversal", a déclaré le Post, ajoutant que le manuel d'utilisation de Tesla informe les conducteurs que la technologie peut également faiblir sur les routes s'il y a des collines ou des virages serrés.
L'enquête du Post "s'appuie sur des cas de mauvaise utilisation par les conducteurs de la fonction d'aide à la conduite Autopilot pour suggérer que le système est le problème", a déclaré Tesla dans un message sur la plateforme de médias sociaux X, ajoutant que l'Autopilot était environ 10 fois plus sûr que la moyenne américaine et 5 fois plus sûr qu'une Tesla sans que la technologie ne soit activée.
L'entreprise a également réaffirmé que le conducteur restait responsable du contrôle du véhicule à tout moment et qu'il était informé de cette responsabilité.
Le Post a déclaré que les organismes de réglementation tels que la National Highway Traffic Safety Administration (NHTSA) n'avaient pas adopté de règles pour limiter la technologie à l'usage auquel elle est destinée, malgré l'ouverture d'enquêtes sur le logiciel après avoir identifié plus d'une douzaine d'accidents dans lesquels des véhicules Tesla ont heurté des véhicules d'urgence à l'arrêt.
La NHTSA n'a pas répondu immédiatement à une demande de commentaire de Reuters en dehors des heures de bureau. L'agence a déclaré au Post qu'il serait trop complexe et trop gourmand en ressources de vérifier que des systèmes comme Autopilot ont été utilisés dans les conditions pour lesquelles ils sont conçus, et que cela ne résoudrait potentiellement pas le problème.
Le mois dernier, un juge de Floride a trouvé des "preuves raisonnables" que le directeur général de Tesla, Elon Musk, et d'autres responsables savaient que les véhicules du constructeur automobile étaient équipés d'un système Autopilot défectueux , mais qu'ils ont tout de même laissé les voitures rouler de manière dangereuse.
Cette décision constitue un revers pour Tesla, qui a remporté deux procès en responsabilité du fait des produits en Californie cette année, à propos du système Autopilot.

0 commentaire
Vous devez être membre pour ajouter un commentaire.
Vous êtes déjà membre ? Connectez-vous
Pas encore membre ? Devenez membre gratuitement
Signaler le commentaire
Fermer