Auto >> Automobiel >  >> Auto zorg

Tesla Autopilot-software wordt onderzocht door NHTSA

Tesla Autopilot ligt onder vuur. Opnieuw . Deze keer, in plaats van een paar journalisten die verhalen van achter een toetsenbord doorgeven (hallo), zijn de dingen een stuk serieuzer. De National Highway Traffic Safety Administration (NHTSA) opende een formeel onderzoek naar Tesla's eigen adaptieve cruisecontrol-software. Helaas komt dit na een reeks ongevallen, waarvan sommige met dodelijke afloop. We hebben eerder over deze verhalen gehoord, en toegegeven, ik heb er verschillende behandeld. Maar nu zit Tesla in de problemen bij de FBI.

Het volledige modellengamma van het merk is onderhevig aan onderzoek

Dus, wat heeft de Feds precies op Tesla Autopilot neergehaald? Helaas is er een reeks ongevallen geweest, 11 om precies te zijn, waarvan de NHSTA zegt dat er een Tesla en eerstehulpverleners bij betrokken waren terwijl Tesla Autopilot actief was. Het is duidelijk dat de NHSTA niet vriendelijk is voor hulpdiensten die worden aangereden door auto's die "zelf rijden" totdat het wettelijk uitkomt dat ze dat niet doen. Nu zeg ik dat omdat Tesla in het verleden de verantwoordelijkheid van hun computersoftware naar eigenaars verschuift wanneer het hen uitkomt.

Dit gedrag heeft de aandacht getrokken van de NHTSA, volgens de Associated Press. Helaas bestrijkt de sonde het geheel van Tesla's line-up, zo'n 765.000 voertuigen. Niet zo S3XY. Het is echter belangrijk op te merken dat Tesla, en bij uitbreiding Elon, onschuldig is totdat het tegendeel is bewezen. Het onderzoek loopt nog, maar de National Transportation Safety Board (NTSB) heeft de NHTSA aanbevolen dat Tesla de gebieden beperkt waarin Tesla Autopilot kan worden gebruikt.

Tesla Autopilot is duidelijk geen vervanging voor echte mensen

Volgens de AP heeft de NTSB al eerder foto's gemaakt bij Tesla en het bedrijf de schuld gegeven van tal van andere ongevallen. Ik moet echter opmerken dat niet alleen Tesla Autopilot hier de schuldige is. Mensen zijn niet erg verantwoordelijk met de semi-autonome software. Ze hebben alles gedaan, van slapen tot dronken "rijden" in hun Tesla's. Meestal worden die mensen echter gestraft. De NHTSA probeert nu te bepalen of Tesla ook daar de schuld krijgt.

In sommige opzichten zouden ze dat moeten doen. Er is een cultuur rond Tesla-modellen die nogal schadelijk is geworden. Van r/tesla op Reddit tot Musk's Twitter-feed, de auto's worden verdedigd als iets uit iRobot of Bladerunner terwijl ze dat gewoon niet zijn. Tesla Full Self-Driving is niet volledig zelfrijdend. Het is op zijn best een bèta. Eerlijk gezegd zijn mensen niet verantwoordelijk genoeg voor zelfrijdende auto's. En dat lijkt de aanleiding te zijn geweest voor het onderzoek van de NHTSA.

Hoe kan het merk hiervan herstellen?

Het is dus vrij duidelijk dat Tesla op dit moment een beetje een imagoprobleem heeft. Ik heb moeite om te denken aan een andere autofabrikant wiens imago zo ontsierd is door de publieke controverse na Dieselgate. Eerlijk gezegd moet Tesla beginnen met enige transparantie. Een paar namen veranderen zou een goed begin zijn. "Tesla Autopilot" is enigszins misleidend. GM's "SuperCruise" adaptieve cruise control-software heeft geen connotatie met zelfrijden, terwijl "Autopilot" dat wel doet. Het zou een begin zijn om zeker te zijn, maar we zullen moeten zien wat de NHSTA zegt voor echte veranderingen.