Auto >> Automobiel >  >> Auto zorg

Tesla-auto's kunnen worden teruggeroepen als de stuurautomaat ongevallen blijft veroorzaken

Tesla heeft toegegeven dat het stuurautomaatsysteem niet correct werkt bij hevige regen of wanneer iets de ultrasone sensoren blokkeert. Elon Musk heeft zelfs verklaard dat de "FSD Beta 9.2 eigenlijk niet geweldig is." Er zijn ook verschillende incidenten geweest waarbij bestuurders de stuurautomaatsoftware hebben misbruikt.

Een voorbeeld van zo'n incident vond plaats in 2019 toen een Tesla crashte en in brand vloog en beide inzittenden van het voertuig doodde, die geen van beiden op de bestuurdersstoel zaten.

Er zijn veel problemen geweest, met name ongevallen, die hebben geleid tot een onderzoek door de National Highway Traffic Safety Administration (NHTSA) naar de Autopilot-software van Tesla. En als de NHTSA voldoende bewijs van veiligheidsproblemen vindt, kan dit zelfs leiden tot een terugroepactie.

Wat is Tesla's Autopilot precies?

In tegenstelling tot zijn naam, is Autopilot slechts een rijhulpsysteem. De functies van het Autopilot-systeem omvatten rijstrookassistent, automatisch noodremmen, adaptieve cruisecontrol, waarschuwing voor aanrijdingen vooraan en automatisch van rijstrook wisselen. Het heeft ook Autosteer, Autopark en Summon, waarmee u uw Tesla in en uit krappe ruimtes kunt verplaatsen zonder in de auto te hoeven zitten. Helaas zijn er verschillende incidenten geweest waarbij de automatische piloot niet goed functioneerde, wat tot ongelukken heeft geleid.

Bij veel van deze incidenten zijn voertuigen van eerstehulpverleners betrokken, en vele hebben zich in het donker voorgedaan. Volgens Electrek is bekend dat het Autopilot-systeem van Tesla problemen heeft, met name het detecteren en stoppen voor stilstaande objecten aan de kant van de weg. Het is waarschijnlijk meer toeval dat eerstehulpvoertuigen bij deze ongevallen betrokken zijn, omdat ze vaak langs de kant van de weg worden gestopt. Er is geen bug in het systeem die expliciet gericht is op first responders.

Het NHTSA-onderzoek

Het onderzoek van de NHTSA begon in augustus na 11 crashes tussen Tesla's en eerstehulpvoertuigen. In beide gevallen heeft de NHTSA vastgesteld dat Autopilot vóór deze botsingen werd gebruikt. En volgens Business Insider werd een 12e crash aan het onderzoek toegevoegd nadat een Model 3 een Florida Highway Patrol-auto raakte die op 28 augustus werd gestopt aan de kant van de I-4 om een ​​gehandicapte automobilist te helpen. Deze 12 crashes leidden tot 17 gewonden en één dode.

Volgens CNBC moet Tesla gegevens van de gehele met Autopilot uitgeruste vloot van het bedrijf, niet alleen de 12 voertuigen die betrokken waren bij de eerstehulpongevallen, inclusief auto's, software en hardware die Tesla van 2014 tot 2021 heeft verkocht, tegen 22 oktober aan de NHTSA overdragen . En als de NHTSA voldoende bewijs van veiligheidsproblemen vindt, kan het bureau een volledige terugroepactie van Tesla-auto's die zijn uitgerust met Autopilot verplichten.

Tesla's nieuwe 'Full Self-Driving'-functie

Nogmaals, in tegenstelling tot zijn naam, is Full Self-Driving (FSD) een geavanceerd rijhulpsysteem. Het is in feite een verbeterde versie van Autopilot waarvoor een maandelijks abonnement vereist is. Volgens Road Show bevindt het zich in bètatests en wordt de 10e versie van FSD-bèta uitgerold. Momenteel nemen ongeveer 1.000 medewerkers en eigenaren deel aan de bètatest voor FSD.

Is de Autopilot-software van Tesla onveilig? Veel mensen beweren dat de software veilig is en dat de problemen liggen bij de mensen die het verkeerd gebruiken. Mensen interpreteren vaak verkeerd wat "Autopilot" betekent, en misschien is dat het probleem. Misschien is de aanbeveling van de NHTSA uit het onderzoek om de naam te veranderen in iets minder misleidend. Natuurlijk is het waarschijnlijk veilig om te zeggen dat Musk het waarschijnlijk niet eens zou zijn met die aanbeveling.