Le Washington Post demande pourquoi le pilote automatique Tesla peut être utilisé dans des endroits où il ne devrait pas l'être - CleanTechnica

Le Washington Post demande pourquoi le pilote automatique Tesla peut être utilisé dans des endroits où il ne devrait pas l'être – CleanTechnica

Nœud source: 3006617

Inscrivez-vous mises à jour quotidiennes des nouvelles de CleanTechnica sur e-mail. Ou suivez-nous sur Google Actualités!


Un article dans le Washington post le 10 décembre 2023, on demande si Tesla Autopilot n'est pas destiné à être utilisé sur des routes à trafic transversal, pourquoi Tesla l'autorise-t-il à s'activer sur ces routes ? C'est une question légitime, qui implique un certain nombre de facteurs, depuis l'attitude des régulateurs fédéraux jusqu'aux désirs de l'homme le plus riche du monde. Autour de la fontaine à eau à CleanTechinca bar à jus ultra-moderne, il y a beaucoup de désaccord sur cette question. Le fait que le Post L'histoire n'est en ligne que depuis environ 12 heures et compte plus de 3,600 XNUMX commentaires, ce qui témoigne du niveau d'intérêt – et de controverse – associé à cette question.

Pilote automatique sur une route sombre et solitaire

L'histoire commence avec un jeune couple qui a retiré leur Chevrolet Tahoe de la route près de Key Largo pour regarder les étoiles. Le Post dit : « Une Tesla circulant en pilote automatique s'est écrasée à travers une intersection en T à environ 70 mph et a projeté le jeune couple en l'air, tuant l'un et blessant gravement l'autre. Dans les images de la caméra corporelle de la police obtenues par le Washington post, le conducteur secoué dit qu'il « conduisait en croisière » et a détourné les yeux de la route lorsqu'il a laissé tomber son téléphone.

Mais l'accident de 2019 révèle un problème plus profond que l'inattention du conducteur. Post dit. Cela s'est produit sur une route rurale où la technologie Autopilot de Tesla n'a pas été conçue pour être utilisée. Images de la caméra embarquée capturé par la Tesla et obtenu exclusivement par The Post montre la voiture traversant un panneau d'arrêt, un feu clignotant et cinq panneaux jaunes avertissant que la route se termine et que les conducteurs doivent tourner à gauche ou à droite.

Vous avez peut-être une opinion sur Elon Musk, Tesla et le tant vanté Technologie de pilote automatique et si c'est le cas, tant mieux pour vous. Mais regardez cette vidéo, puis répondez à ces questions :

  • Pourquoi le pilote automatique a-t-il pu être activé sur cette route ?
  • Pourquoi le pilote automatique n'a-t-il pas reconnu une intersection en T marquée par un panneau d'arrêt, un feu clignotant et cinq panneaux jaunes ?

AutopilotDans les manuels d'utilisation, les documents juridiques et les communications avec les régulateurs fédéraux, Tesla a reconnu que l'Autosteer, la fonctionnalité clé du pilote automatique, est « destiné à être utilisé sur des autoroutes à accès contrôlé » avec « un séparateur central, des marquages ​​de voie clairs et aucune circulation transversale ». Tesla informe les conducteurs que la technologie peut faiblir sur les routes s'il y a des collines ou des virages serrés, selon son manuel d'utilisation.

Même si l'entreprise a la capacité technique de limiter la disponibilité d'Autopilot par zone géographique, elle a pris quelques mesures définitives pour restreindre l'utilisation du logiciel. La question est, pourquoi ? Si la voiture sait où elle se trouve et sur quelle route elle se trouve, pourquoi n'y a-t-il pas une disposition dans le logiciel qui interdit au pilote automatique de s'engager dans des circonstances où son utilisation pourrait être dangereuse pour les conducteurs, les passagers et les piétons ?

Les régulateurs fédéraux ne sont pas d’accord

Une partie de la réponse réside peut-être dans un conflit interne entre le National Transportation Safety Board et la National Highway Traffic Safety Administration. Après l'accident de 2016 qui a coûté la vie au conducteur de la Tesla Model S, Joshua Brown, le NTSB a demandé des limites quant aux endroits où la technologie d'aide à la conduite pouvait être activée. Mais en tant qu’agence purement d’enquête, elle n’a aucun pouvoir de réglementation sur Tesla. La NHTSA, qui fait partie du ministère des Transports, a le pouvoir d'établir des normes de sécurité automobile exécutoires, mais son inaction a donné lieu à un fossé inhabituel et de plus en plus tendu entre les deux agences.

Dans une interview accordée en octobre, la présidente du NTSB, Jennifer Homendy, a déclaré que le crash de 2016 aurait dû inciter la NHTSA à créer des règles applicables sur les endroits où la technologie de Tesla pourrait être activée. Cette inaction, selon elle, reflète « un véritable échec du système. Si le constructeur ne prend pas la sécurité au sérieux, c'est au gouvernement fédéral de s'assurer qu'il défend les autres pour garantir la sécurité », mais « la sécurité ne semble pas être la priorité lorsqu'il s'agit de Tesla. » En parlant de la NHTSA, Homendy a ajouté : « Combien de personnes supplémentaires doivent mourir avant que vous n’agissiez en tant qu’agence ?

Cela ressemble certainement à un coup de feu en travers de la proue de la NHTSA. En réponse, l'agence a déclaré qu'elle « accueille toujours favorablement les commentaires du NTSB et les examine attentivement, en particulier lorsqu'elle envisage des mesures réglementaires potentielles. En tant qu’agence de santé publique, de réglementation et de sécurité, la sécurité est notre priorité absolue. Il a ensuite ajouté qu'il serait trop complexe et trop gourmand en ressources de vérifier que des systèmes tels que Tesla Autopilot sont utilisés dans les conditions pour lesquelles ils sont conçus, et que cela ne résoudrait potentiellement pas le problème.

Homendy était sceptique quant à cette explication, affirmant que les agences et les industries répondent fréquemment aux recommandations du NTSB en invoquant l'impossibilité de leurs demandes – jusqu'à ce qu'un carnage supplémentaire leur force la main. La NHTSA a déclaré qu'elle se concentrait plutôt sur la garantie que les conducteurs sont pleinement engagés lorsqu'ils utilisent des systèmes avancés d'aide à la conduite.

Dans des affaires judiciaires et des déclarations publiques, Tesla a affirmé à plusieurs reprises qu'elle n'était pas responsable des accidents impliquant le pilote automatique, car le conducteur est en fin de compte responsable de la trajectoire de la voiture. Après un accident mortel en 2018, Tesla a déclaré au NTSB que les limites de conception du pilote automatique ne seraient pas appropriées car « le conducteur détermine l'environnement d'exploitation acceptable ».

Steven Cliff, un ancien chef de la NHTSA qui a quitté l'agence l'année dernière, a déclaré au Washington post L'approche adoptée par les régulateurs peut parfois paraître trop prudente, mais il a déclaré que son agence s'était montrée agressive sous sa direction et que des sociétés mandatées telles que Tesla rapportaient leurs données sur les accidents impliquant des systèmes avancés d'aide à la conduite. Mais passer de l’étape de collecte de données à une règle finale, où de nouvelles réglementations sont adoptées si nécessaire, peut prendre des années. "La philosophie de Tesla est de laisser l'opérateur déterminer lui-même ce qui est sûr, tout en lui offrant une grande flexibilité pour prendre cette décision", a-t-il déclaré.

Le pilote automatique sait où il se trouve

Cliff a également déclaré que Tesla pourrait facilement limiter les endroits où la technologie peut être déployée. « La Tesla sait où elle se trouve. Il a la navigation. Il sait si c'est sur une autoroute ou dans une zone où la technologie n'a pas été conçue pour être utilisée », a-t-il déclaré. "S'il n'a pas été conçu pour être utilisé là-bas, pourquoi pouvez-vous l'utiliser là-bas ?" Elon Musk a un jour raccroché au nez de l'ancien président du NTSB, Robert Sumwalt, qui a pris sa retraite de l'agence en 2021 lorsque Homendy a pris la relève.

En 2020, le NTSB a publié un rapport sur un autre accident mortel de Tesla citant à la fois un chauffeur de camion qui a exécuté un panneau d'arrêt et la « dépendance excessive » du conducteur de Tesla à l'égard du pilote automatique comme causes probables de l'accident. Le NTSB a également pris la décision inédite de citer la NHTSA pour la première fois, affirmant que son incapacité à « développer une méthode » qui « limiterait l’utilisation des systèmes de contrôle automatisés des véhicules aux conditions pour lesquelles ils ont été conçus » a contribué à l’accident. En 2021, le NTSB a envoyé une autre lettre à la NHTSA à propos du pilote automatique, appelant l'agence à « inclure des garanties, des protocoles et des normes de performance minimales raisonnables pour garantir la sécurité des automobilistes et des autres usagers de la route vulnérables ».

Dans l’une de ses dernières tentatives pour inciter à l’action, Homendy a envoyé une lettre directement à Musk en août 2021. Elle l’a exhorté à mettre en œuvre des garanties pour « limiter » la technologie aux conditions pour lesquelles elle a été conçue, entre autres recommandations. « Si vous souhaitez sérieusement mettre la sécurité au premier plan dans la conception des véhicules Tesla », a-t-elle écrit, « je vous invite à mettre en œuvre les recommandations de sécurité que nous vous avons émises il y a quatre ans. » Musk n’a jamais répondu, a-t-elle déclaré.

La controverse sur le pilote automatique abonde

Mon vieux grand-père irlandais a toujours affirmé que la partie la plus dangereuse de toute automobile était l’écrou derrière le volant. Les défenseurs de Musk aiment dire qu’Autopilot a sauvé bien plus de personnes qu’il n’en a blessé. D'un autre côté, ceux qui détestent Musk laissent entendre sombrement que le pilote automatique est conçu pour s'éteindre quelques secondes avant un accident afin que l'entreprise puisse dire sans ambages que le système n'était pas actif au moment de l'accident. Les deux groupes ont probablement partiellement raison.

Mais c'est ici que le caoutchouc rencontre la route. L’homme grièvement blessé dans les Keys de Floride demande : « Comment ont-ils pu permettre quelque chose comme ça sur la route ? C'est comme une arme mortelle, qui circule partout. Et les gens, les piétons comme moi, comment sommes-nous censés savoir des choses pareilles ? Cela ne devrait pas être autorisé.

Plus d'une fois, la conversation à CleanTechnica ne s’est pas concentré sur les conducteurs de Tesla mais sur les conducteurs et les passagers d’autres voitures – ainsi que les piétons et les cyclistes – qui ne savent pas qu’ils sont les acteurs d’une simulation informatique géante créée expressément pour le Grand et Puissant Musk. Qui parle pour eux ? Qui protège leurs droits ? Pourquoi sont-ils attirés par l’histoire de Tesla sans leur consentement ?

Nul doute que nos lecteurs le feront j'ai beaucoup à dire sur ces sujets. Nous avons hâte de lire vos commentaires.


Vous avez un conseil pour CleanTechnica ? Vous voulez faire de la publicité ? Vous souhaitez suggérer un invité pour notre podcast CleanTech Talk ? Contactez-nous ici.


Notre dernière vidéo EVObsession

[Contenu intégré]


Je n'aime pas les paywalls. Vous n'aimez pas les paywalls. Qui aime les paywalls ? Chez CleanTechnica, nous avons mis en place un paywall limité pendant un certain temps, mais cela nous a toujours semblé erroné – et il a toujours été difficile de décider ce que nous devrions y mettre. En théorie, votre contenu le plus exclusif et le meilleur est protégé par un paywall. Mais alors moins de gens le lisent !! Nous avons donc décidé de supprimer complètement les paywalls ici chez CleanTechnica. Mais…

 

Comme d’autres sociétés de médias, nous avons besoin du soutien des lecteurs ! Si vous nous soutenez, s'il vous plaît, apportez un peu de contribution chaque mois pour aider notre équipe à rédiger, éditer et publier 15 articles sur les technologies propres par jour !

 

Merci!


Publicité



 


CleanTechnica utilise des liens d'affiliation. Voir notre politique ici.


Horodatage:

Plus de CleanTechnica