Tesla ignore le code de la route pour que son Autopilot conduise “comme un humain”
Tesla aurait donné des consignes étonnantes pour entraîner son système Autopilot, en lui demandant de ne pas toujours respecter certaines règles de circulation. Cette stratégie vise à rendre la conduite plus humaine, mais elle est peu limitée concernant la sécurité.
Les avancées dans le domaine de la conduite autonome sont au centre des priorités de Tesla. Le constructeur cherche constamment à améliorer l'Autopilot, avec des mises à jour régulières de son Full Self-Driving (FSD). Ces améliorations visent à rendre la conduite assistée plus fluide et naturelle, en facilitant la détection des obstacles et la prise de décision. Cependant, de récentes révélations montrent que l'entraînement de ce dernier pourrait ne pas toujours suivre les règles strictes du code de la route, ce qui a de quoi surprendre.
Tesla semble vouloir que son Autopilot adopte une conduite plus humaine, plutôt que de respecter à la lettre toutes les règles de circulation. Cette approche repose sur une idée simple : rendre la conduite moins robotique. Des employés auraient affirmé que certaines directives internes consistaient à ignorer des panneaux, comme ceux interdisant les virages à droite au feu rouge ou les demi-tours. L’objectif serait de rendre le véhicule plus flexible et fluide dans ses manœuvres.
Tesla entraîne l’Autopilot à ignorer certains panneaux pour plus qu’il soit plus humain
Des témoignages d'anciens employés révèlent que l’Autopilot est entraîné à ignorer des règles de signalisation spécifiques. L'un des exemples les plus marquants concerne les panneaux que l’on trouve communément aux États-Unis “pas de virage à droite au feu rouge“. L'objectif est que la voiture adopte une conduite plus naturelle, comme le ferait un conducteur humain, sans suivre aveuglément les panneaux. Bien que cette approche vise à rendre le trajet plus fluide, elle pourrait entraîner des risques pour les utilisateurs, surtout dans des situations de circulation complexe ou imprévue.
En plus de cette méthode d'entraînement inhabituelle, d'autres pratiques chez Tesla ont également été critiquées. Par exemple, les employés chargés de l’annotation des vidéos capturées par les véhicules ont déclaré que Tesla donnait souvent la priorité aux ajustements concernant les trajets d’Elon Musk ou les vidéos virales partagées en ligne. Cette manière de prioriser des cas spécifiques pourrait affecter la manière dont l’Autopilot est optimisé pour tous les utilisateurs. La marque, en essayant de rendre son systeme plus humain, pourrait exposer ses clients à des risques si ces ajustements ne sont pas faits de manière globale.
Source : Business Insider