Tesla roept bijna alle voertuigen terug die in de VS worden verkocht om een ​​systeem te repareren dat bestuurders controleert met behulp van de automatische piloot

Tesla roept bijna alle voertuigen terug die in de VS worden verkocht om een ​​systeem te repareren dat bestuurders controleert met behulp van de automatische piloot

Tesla roept bijna alle in de VS verkochte voertuigen terug, meer dan 2 miljoen, om de software te updaten en een defect systeem te repareren dat ervoor moet zorgen dat bestuurders opletten als ze de automatische piloot gebruiken.

Documenten die woensdag door Amerikaanse veiligheidsregelgevers zijn geplaatst, zeggen dat de update het aantal waarschuwingen voor bestuurders zal vergroten en zelfs de gebieden zal beperken waar basisversies van Autopilot kunnen werken.

De terugroepactie komt na een twee jaar durend onderzoek door de National Highway Traffic Safety Administration naar een reeks ongelukken die plaatsvonden terwijl het gedeeltelijk geautomatiseerde Autopilot-rijsysteem in gebruik was. Sommige waren dodelijk.

Het bureau zegt dat uit het onderzoek is gebleken dat de methode van Autopilot om ervoor te zorgen dat bestuurders opletten, ontoereikend kan zijn en kan leiden tot “voorzienbaar misbruik van het systeem.”

De toegevoegde controles en waarschuwingen zullen “de bestuurder verder aanmoedigen om zich aan zijn voortdurende rijverantwoordelijkheid te houden”, aldus de documenten.

Maar veiligheidsexperts zeiden dat, hoewel de terugroepactie een goede stap is, de bestuurder nog steeds verantwoordelijk wordt gesteld en het onderliggende probleem van de geautomatiseerde systemen van Tesla met het opsporen en stoppen van obstakels op hun pad niet wordt opgelost.

De terugroepactie heeft betrekking op de modellen Y, S, 3 en X die tussen 5 oktober 2012 en 7 december van dit jaar zijn geproduceerd. De update zou dinsdag naar bepaalde betrokken voertuigen worden gestuurd, terwijl de rest deze later zou ontvangen.

De aandelen van Tesla daalden tijdens de eerdere handelswoensdag met meer dan 3%, maar herstelden zich te midden van een brede aandelenmarktrally om de dag met 1% te eindigen.

De poging om de tekortkomingen in Autopilot aan te pakken leek een geval van te weinig en te laat voor Dillon Angulo, die ernstig gewond raakte bij een ongeluk in 2019 met een Tesla die de technologie gebruikte langs een landelijk stuk snelweg in Florida waar de software niet beschikbaar is. verondersteld te worden ingezet.

“Deze technologie is niet veilig, we moeten deze van de weg halen”, zegt Angulo, die Tesla aanklaagt terwijl hij herstelt van verwondingen, waaronder hersentrauma en gebroken botten. “De overheid moet er iets aan doen. Experimenteer niet op deze manier.”

Autopilot omvat functies genaamd Autosteer en Traffic Aware Cruise Control, waarbij Autosteer bedoeld is voor gebruik op snelwegen met beperkte toegang wanneer het niet werkt, met een meer geavanceerde functie genaamd Autosteer op stadsstraten.

De software-update beperkt waar Autosteer kan worden gebruikt. “Als de bestuurder Autosteer probeert in te schakelen wanneer niet aan de voorwaarden is voldaan voor activering, zal de functie de bestuurder waarschuwen dat deze niet beschikbaar is via visuele en hoorbare waarschuwingen, en Autosteer zal niet inschakelen”, aldus de terugroepdocumenten.

Afhankelijk van de hardware van een Tesla omvatten de toegevoegde bedieningselementen het “toenemender worden” van visuele waarschuwingen, het vereenvoudigen van de manier waarop Autosteer wordt in- en uitgeschakeld, en extra controles of Autosteer wordt gebruikt buiten gecontroleerde toegangswegen en bij het naderen van verkeerscontroleapparatuur. Een bestuurder kan worden geschorst van het gebruik van Autosteer als hij er herhaaldelijk niet in slaagt “aanhoudende en aanhoudende rijverantwoordelijkheid aan te tonen”, aldus de documenten.

Volgens terugroepdocumenten hadden onderzoekers van het bureau vanaf oktober een ontmoeting met Tesla om “voorlopige conclusies” uit te leggen over het repareren van het monitoringsysteem. Tesla was het niet eens met de analyse van NHTSA, maar stemde op 5 december in met de terugroepactie in een poging het onderzoek op te lossen.

Voorvechters van autoveiligheid pleiten al jaren voor strengere regulering van het bestuurdersmonitoringsysteem, dat vooral detecteert of de handen van een bestuurder aan het stuur zitten. Ze hebben opgeroepen tot camera’s om ervoor te zorgen dat een bestuurder oplet, die door andere autofabrikanten met vergelijkbare systemen worden gebruikt.

Philip Koopman, een professor in elektrische en computertechniek aan de Carnegie Mellon Universiteit die de veiligheid van autonome voertuigen bestudeert, noemde de software-update een compromis dat niets doet aan het gebrek aan nachtzichtcamera’s om de ogen van bestuurders in de gaten te houden, en ook aan het feit dat Tesla’s er niet in slagen om te detecteren en stop voor obstakels.

“Het compromis is teleurstellend omdat het het probleem niet oplost dat oudere auto’s niet over adequate hardware beschikken voor het monitoren van de bestuurder”, aldus Koopman.

Koopman en Michael Brooks, uitvoerend directeur van de non-profitorganisatie Center for Auto Safety, beweren dat het botsen tegen hulpverleningsvoertuigen een veiligheidsprobleem is dat niet wordt aangepakt. “Het gaat niet om het graven naar de kern van waar het onderzoek naar kijkt”, zei Brooks. “Het geeft geen antwoord op de vraag waarom Tesla’s op de Autopilot geen noodactiviteiten detecteren en erop reageren?”

Koopman zei dat NHTSA blijkbaar heeft besloten dat de softwareverandering het maximale uit het bedrijf kon halen, “en dat de voordelen hiervan nu opwegen tegen de kosten van nog een jaar ruzie maken met Tesla.”

In haar verklaring van woensdag zei NHTSA dat het onderzoek open blijft “terwijl we de werkzaamheid van Tesla’s oplossingen monitoren en blijven samenwerken met de autofabrikant om het hoogste veiligheidsniveau te garanderen.”

Autopilot kan automatisch sturen, accelereren en remmen in zijn rijstrook, maar is een rijhulpsysteem en kan, ondanks de naam, niet zelf rijden. Uit onafhankelijke tests is gebleken dat het monitoringsysteem gemakkelijk voor de gek te houden is, zozeer zelfs dat bestuurders betrapt worden terwijl ze dronken aan het rijden waren of zelfs op de achterbank zaten.

In zijn defectrapport, ingediend bij de veiligheidsdienst, zei Tesla dat de controles van Autopilot “misschien niet voldoende zijn om misbruik door de bestuurder te voorkomen.”

Woensdag vroeg werd een bericht achtergelaten met de vraag om verder commentaar van het bedrijf uit Austin, Texas.

Tesla zegt op zijn website dat Autopilot en een geavanceerder Full Self Driving-systeem bedoeld zijn om bestuurders te helpen die te allen tijde klaar moeten staan ​​om in te grijpen. Full Self Driving wordt door Tesla-eigenaren getest op de openbare weg.

In een verklaring die maandag op X, voorheen Twitter, werd geplaatst, zei Tesla dat de veiligheid sterker is als Autopilot is ingeschakeld.

NHTSA heeft sinds 2016 onderzoekers naar 35 Tesla-crashes gestuurd, waarbij de dienst vermoedt dat de voertuigen op een geautomatiseerd systeem reden. Minstens 17 mensen zijn gedood.

De onderzoeken maken deel uit van een groter onderzoek door de NHTSA naar meerdere gevallen van Tesla’s die gebruik maken van de Autopilot en die tegen voertuigen van hulpdiensten botsen. NHTSA is agressiever geworden in het aanpakken van veiligheidsproblemen met Teslas, waaronder een terugroepactie van Full Self Driving-software.

In mei zei transportsecretaris Pete Buttigieg, wiens afdeling NHTSA omvat, dat Tesla het systeem niet Autopilot mag noemen omdat het niet zelf kan rijden.