Teslaer med delvis automatiserte kjøresystemer er et skritt nærmere å bli tilbakekalt etter at USA hevet etterforskningen av en rekke kollisjoner med parkerte utrykningskjøretøyer eller lastebiler med advarselsskilt. National Highway Traffic Safety Administration sa at den oppgraderer Tesla-sonden til en ingeniøranalyse, nok et tegn på økt gransking av elbilprodusenten og automatiserte systemer som utfører i det minste noen kjøreoppgaver.

Dokumenter lagt ut av byrået reiser noen alvorlige problemer med Teslas autopilotsystem. Byrået fant ut at den brukes i områder hvor dens evner er begrenset, og at mange sjåfører ikke tar grep for å unngå krasj til tross for advarsler fra kjøretøyet.

Sonden dekker nå 830 000 kjøretøy, nesten alt bilprodusenten Austin, Texas, har solgt i USA siden starten av 2014-modellåret.

NHTSA rapporterte at det har funnet 16 krasj inn i utrykningskjøretøy og lastebiler med advarselsskilt, som forårsaket 15 skader og én død.

Utforskere vil evaluere tilleggsdata, kjøretøyytelse og”utforske i hvilken grad autopilot og tilhørende Tesla-systemer kan forverre menneskelige faktorer eller atferdsmessige sikkerhetsrisikoer, og undergrave effektiviteten til førerens tilsyn,”sa byrået.

En ingeniøranalyse er det siste stadiet av en etterforskning, og i de fleste tilfeller avgjør NHTSA innen et år om det skal være en tilbakekalling eller om sonden skal lukkes.

I de fleste av de 16 ulykkene utstedte Teslaene kollisjonsvarsler til sjåførene like før kollisjonen. Automatisk nødbrems grep inn for i det minste å bremse bilene i omtrent halvparten av tilfellene. I gjennomsnitt ga Autopilot kontrollen over Teslaene mindre enn et sekund før krasjet, sa NHTSA i dokumenter som beskriver sonden.

NHTSA sa også at de undersøker krasj som involverer lignende mønstre som ikke inkluderer utrykningskjøretøy eller lastebiler med advarselsskilt.

Byrået fant at i mange tilfeller hadde sjåførene hendene på rattet slik Tesla krever, men klarte likevel ikke å iverksette tiltak for å unngå en krasj. Dette tyder på at sjåførene overholder Teslas overvåkingssystem, men det sørger ikke for at de tar hensyn.

I ulykker der video er tilgjengelig, burde sjåførene ha sett førstehjelpskjøretøy i gjennomsnitt åtte sekunder før kollisjonen, skrev byrået.

Byrået må avgjøre om det er en sikkerhetsmangel med autopiloten før de forfølger en tilbakekalling.

etterforskere skrev også at en sjåførs bruk eller misbruk av førerovervåkingssystemet”eller bruk av et kjøretøy på en utilsiktet måte ikke nødvendigvis utelukker en systemfeil.”

Byrådokumentet sier nesten at Teslas metode for å sørge for at sjåfører tar hensyn ikke er god nok, at den er defekt og bør tilbakekalles, sa Bryant Walker Smith, en jusprofessor ved University of South Carolina som studerer automatiserte kjøretøy.

“Det er veldig enkelt å ha en hånd på rattet og være helt fri fra kjøringen,”sa han. Overvåking av en førers håndposisjon er ikke effektiv fordi den kun måler en fysisk stilling.”Det er ikke opptatt av deres mentale kapasitet, deres engasjement eller deres evne til å svare.”

Lignende systemer fra andre selskaper som General Motors’Super Cruise bruker infrarøde kameraer for å se på en sjåførs øyne eller ansikt for å sikre at de ser frem. Men selv disse systemene kan fortsatt tillate en sjåfør å sone ut, sa Walker Smith.

“Dette er bekreftet i studie etter studie,”sa han.”Dette er etablert faktum at folk kan se engasjerte ut og ikke være engasjerte. Du kan ha hånden på rattet og du kan se fremover og ikke ha den situasjonsbevisstheten som kreves.”

Totalt så byrået på 191 ulykker, men fjernet 85 av dem fordi andre sjåfører var involvert eller det ikke var nok informasjon til å gjøre en sikker vurdering. Av de resterende 106 så det ut til at hovedårsaken til omtrent en fjerdedel av ulykkene var å kjøre autopilot i områder der den har begrensninger, eller under forhold som kan forstyrre driften.

“For eksempel drift på andre veier enn motorveier med begrenset tilgang, eller drift i miljøer med lav trekkraft eller sikt som regn, snø eller is,”skrev byrået.

Andre bilprodusenter begrenser bruken av systemene sine til delte motorveier med begrenset tilgang.

The National Transportation Safety Board, som også har undersøkt noen av Tesla-ulykkene som dateres til 2016, har anbefalt at NHTSA og Tesla begrenser bruken av autopiloten til områder der den kan operere trygt. NTSB anbefalte også at NHTSA krever at Tesla har et bedre system for å sikre at sjåførene er oppmerksomme. NHTSA har ennå ikke handlet på anbefalingene. NTSB kan bare gi anbefalinger til andre føderale byråer.

I en uttalelse sa NHTSA at det ikke er noen kjøretøy tilgjengelig for kjøp i dag som kan kjøre selv.”Hvert tilgjengelig kjøretøy krever at den menneskelige sjåføren har kontroll til enhver tid, og alle statlige lover holder den menneskelige sjåføren ansvarlig for driften av kjøretøyene deres,”sa byrået.

Sjåførassistentsystemer kan bidra til å unngå krasj, men må brukes riktig og ansvarlig, sa byrået.

Tesla gjorde en online oppdatering av Autopilot-programvaren i fjor høst for å forbedre kameradeteksjonen av utrykningskjøretøyslys i dårlige lysforhold. NHTSA har spurt hvorfor selskapet ikke gjorde en tilbakekalling.

NHTSA startet sin undersøkelse i august i fjor etter en rekke ulykker siden 2018 der Teslaer som brukte selskapets autopilot eller Traffic Aware Cruise Control-systemer traff kjøretøy på scener der førstehjelpspersonell brukte blinkende lys, fakler, opplyst piltavle, eller kjegler som advarer om farer.

FacebookTwitterLinkedin

Categories: IT Info