Tesla : il tue 2 personnes quand l’Autopilot est activé, il est jugé coupable d’homicide

La justice californienne a retenu deux chefs d'accusation d'homicide involontaire contre un jeune conducteur de 27 ans. Alors qu'il avait l'Autopilot activé, son véhicule a franchi un feu rouge et embouti une autre voiture, entraînant la mort de deux personnes. Il s'agit de la première décision de justice à aboutir à l'inculpation du propriétaire de la Tesla, malgré l'utilisation confirmée de l'Autopilot.

tesla model s
Crédits : Tesla

Il s'agit d'une décision historique. Jusqu'alors, un conducteur impliqué dans un accident mortel n'avait jamais été accusé s'il y avait eu la preuve qu'un système de conduite partiellement automatisé, comme l'Autopilot, pouvait être responsable de l'incident. Ce n'est désormais plus le cas.

En effet, deux procureurs californiens ont retenu deux chefs d'accusation pour homicide involontaire contre un jeune chauffeur de VTC de 27 ans. Le 29 décembre 2019 dans une banlieue de Los Angeles, sa Tesla Model S a grillé un feu rouge à toute vitesse avant d'emboutir une autre voiture à proximité. Le bilan est lourd : deux personnes sont tuées sur le coup, et deux autres passagers à bord de la Tesla sont blessées. Il a été confirmé que l'Autopilot était activé.

La NHTSA rappelle la responsabilité du conducteur

Ces accusations, déposées en octobre 2021, ont été médiatisées la semaine dernière seulement par la chaîne locale KPIX 5 et l'Associated Press. Après l'accident, l'agence fédérale américaine en charge de la sécurité routière, la NHTSA, a chargé son équipe spéciale d'investigation d'enquêter sur le drame. Dans ses premières conclusions, l'organisme rappelle la responsabilité du conducteur :

Qu'un système de conduite automatisé L2 (niveau 2) soit engagé ou non, chaque véhicule disponible exige que le conducteur humain soit en contrôle à tout moment, et les lois de tous les États tiennent le conducteur humain responsable du fonctionnement de leurs véhicules. Certaines fonctions avancées d'aide à la conduite peuvent promouvoir la sécurité en aidant les conducteurs à éviter les accidents et à atténuer la gravité des accidents qui se produisent, mais comme pour toutes les technologies et tous les équipements des véhicules à moteur, les conducteurs doivent les utiliser correctement et de manière responsable”, déclarait un porte-parole de l'agence.

autopilot tesla
Crédits : Tesla

Un verdict historique et lourd de sens

Rappelons toutefois que Tesla a toujours informé ses conducteurs qu'ils doivent se tenir prêts à réagir et à prendre le volant à n'importe quel moment en utilisant l'Autopilot ou le FSD. Quoi qu'il en soit, il s'agit d'une décision historique. Il s'agit de la toute première accusation impliquant une technologie d'assistance à la conduite largement utilisée sur le territoire américain. En l'occurrence, l'Autopilot de Tesla.

Si vous suivez l'actualité de la marque sur Phonandroid, vous n'êtes pas sans savoir que ce n'est pas la première fois que ce système est mis en cause dans des accidents mortels. On se souvient de cette collision fatale en avril 2021 d'une Model S qui a coûté la vie à deux personnes. Depuis le déploiement de l'Autopilot en 2015, la NHTSA estime que la technologie a entraîné la mort d'au moins dix personnes lors de 26 accidents.

C'est d'ailleurs cette série d'incidents qui motivé l'agence fédérale à ouvrir officiellement une enquête sur l'Autopilot. Ces investigations, toujours en cours, portent sur 750 000 véhicules, parmi des Model X, Model Y, Model S et Model 3 entrées en circulation entre 2014 et 2021. En outre, notez que cette décision de justice survient après ce qui semble être le premier incident majeur impliquant le FSD (Full Self Driving), le système de conduite entièrement autonome de Tesla.

Tesla model X accident scott engle
Crédit : Scott Engle / YouTube

Le FSD lui aussi mis en cause

Alors que le FSD était activé, une Tesla Model Y s'est engagée sur une mauvaise voie sur l'autoroute, provoquant un important carambolage. Fort heureusement, aucune victime n'a été déplorée. Seulement, le FSD s'est rapidement retrouvé au centre d'une nouvelle polémique. En janvier 2022, plusieurs conducteurs ont constaté l'intégration de profils de conduite du FSD potentiellement dangereux. Le mode “Assertif” notamment peut inciter la Tesla à effectuer des stops glissés (pas d'arrêt total à un stop, un panneau ou une priorité), une manœuvre risquée qui viole le Code de la route américain.

Comme le rappellent nos confrères de l'Associated Press, la législation autour des véhicules autonomes est encore trop floue aux USA. Aux yeux de Bryan Walker Smith, professeur de droit à l'université de Caroline du Sud qui étudie notamment les véhicules automatisés, Tesla pourrait très bien “être tenue pénalement, civilement ou moralement coupable” s'il était prouvé que le constructeur a déployé une technologie dangereuse sur les routes américaines. Pour l'instant, Tesla n'a pas encore répondu officiellement à cette affaire.

Source : Associated Press


Abonnez-vous gratuitement à la newsletter
Chaque jour, le meilleur de Phonandroid dans votre boite mail !
Réagissez à cet article !
Demandez nos derniers  !