Jusqu’à présent cette année, des voitures Tesla équipées du logiciel Autopilot et Full-Self Drive ont été interceptées heurter des voitures de police en stationnement, trains de coupure et s’écartant de la route. Un rapport a maintenant révélé que les accidents sont le résultat de un « défaut fondamental » dans le fonctionnement du logiciel.
Tesla Le système de pilotage automatique fonctionne grâce à un ensemble de caméras positionnées sur ses voitures, notamment à l’avant, à l’arrière et sur les côtés. Les caméras surveillent en permanence la zone autour des voitures et, à l’aide de l’apprentissage automatique, calculent comment le véhicule doit se comporter lorsque le pilote automatique ou la conduite entièrement autonome est activé.
Les caméras sont formées par des experts en données de Tesla pour repérer les panneaux de signalisation et réagir en conséquence. Elles sont également programmées pour reconnaître les obstacles sur la route, comme les camions ou les animaux arrêtés. Cependant, elles ne « savent » comment réagir à un obstacle que s’il s’agit de quelque chose que le logiciel a été formé à repérer. Sinon, le les voitures ne sauront pas comment réagir.
Cette lacune a été soulignée dans un nouveau rapport du Wall Street Journal, qui a enquêté sur plus de 200 accidents impliquant des voitures Tesla équipées du pilote automatique et du FSD.
Dans le rapport, qui est disponible pour être visionné ici, le média a révélé des heures de vidéos d’accidents impliquant Tesla. Sur plus de 1 000 accidents qui ont été soumis à la National Highway Traffic Safety Administration par Tesla, le Journal a pu rassembler 222 incidents à analyser. Parmi ces 222 accidents, 44 ont été causés par des voitures Tesla qui ont viré soudainement et 31 se sont produits lorsque les voitures n’ont pas réussi à s’arrêter ou à céder le passage.
« Le genre de choses qui ont tendance à mal tourner avec ces systèmes sont des choses comme le fait qu’ils n’ont pas été formés sur les images d’une double remorque renversée - ils ne savaient tout simplement pas ce que c’était », a déclaré Phil Koopman, professeur associé de génie électrique et informatique à l’université Carnegie Mellon, à la WSJ.
« Une personne aurait clairement dit que quelque chose d’important se trouve au milieu de la route, mais l’apprentissage automatique fonctionne de la manière suivante : il s’entraîne sur un tas d’exemples. S’il rencontre quelque chose pour lequel il ne dispose pas d’un tas d’exemples, il se peut qu’il n’ait aucune idée de ce qui se passe. »
Ceci, le Journal dit, est le « défaut fondamental » de la technologie de pilotage automatique de Tesla et de son logiciel de conduite entièrement autonome. Selon le WSJ:
La forte dépendance de Tesla aux caméras pour sa technologie de pilotage automatique, qui diffère du reste de l’industrie, met le public en danger.
Les véhicules Tesla fonctionnant en mode Autopilot ont été impliqués dans des centaines d’accidents sur les routes et autoroutes américaines depuis 2016. Au fil des ans, le PDG de Tesla, Elon Musk, a affirmé que la technologie était sûre.
Cependant, les experts externes ne sont pas si sûrs, et WSJ je me suis entretenu avec Missy Cummings, directrice du Centre d’autonomie et de robotique de Mason à l’Université George Mason, qui a à plusieurs fois prévenu que Des personnes pourraient mourir au volant d’une Tesla Fonctionnement du FSD et du pilote automatique.
« Je suis assiégé par les demandes des familles de personnes tuées dans des accidents de Tesla », a déclaré Cummings au WSJ« C’est vraiment difficile de leur expliquer que c’est ainsi que la technologie a été conçue. »
Au lieu de s’appuyer fortement sur les caméras et la vision par ordinateur, d’autres constructeurs automobiles ajoutent des capteurs plus complexes à leurs prototypes de véhicules autonomes. des entreprises comme Volvo, lidar et radar sont employées pour scanner la route devant vous. Ces capteurs surveillent la route à l’aide d’ondes sonores et de lasers pour obtenir une vue plus claire du chemin même en cas de brouillard, d’obscurité ou dans d’autres conditions dans lesquelles une caméra n’est pas aussi efficace.
Les dépenses supplémentaires de tels systèmes ont été un facteur important dans La décision de Tesla de ne pas les utiliser, le patron de l’entreprise Elon Musk les ayant un fois qualifiés d’« inutiles » et d’« équipement de la voiture avec tout un tas d’appendices coûteux ».
La valeur ajoutée de ce coût ne doit cependant pas être sous-estimée. Chez Mercedes, l’intégration du lidar, du radar et des caméras 3D a ouvert la voie au déploiement de ses systèmes de conduite autonome sur les routes américaines. En fait, le constructeur automobile est devenu la première entreprise à obtenir le feu vert pour l’autonomie de niveau trois l’année dernière avec son Système Drive Pilot en Californie et au Nevada.
Le système de niveau trois est une longueur d’avance sur ce que Tesla peut offrir, et Mercedes va également jusqu’à prendre responsabilité légale totale lorsque Drive Pilot est activé. Imaginez si Tesla faisait ce là pour les voitures utilisant le pilote automatique et le FSD.
Ce contenu a été traduit automatiquement à partir du texte original. De légères différences résultant de la traduction automatique peuvent apparaître. Pour la version originale, cliquez ici.