Tesle z częściowo zautomatyzowanymi systemami jazdy są o krok bliżej do wycofania po tym, jak Stany Zjednoczone wszczęły śledztwo w sprawie serii kolizji z zaparkowanymi pojazdami uprzywilejowanymi lub ciężarówkami ze znakami ostrzegawczymi. Narodowa Administracja Bezpieczeństwa Ruchu Drogowego poinformowała, że ​​modernizuje sondę Tesli do analizy inżynierskiej, co jest kolejną oznaką wzmożonej kontroli producenta pojazdów elektrycznych i zautomatyzowanych systemów, które wykonują przynajmniej niektóre zadania związane z prowadzeniem pojazdu.

Dokumenty opublikowane przez agencję poruszają poważne problemy dotyczące systemu Autopilot Tesli. Agencja odkryła, że ​​jest on używany w obszarach, w których jego możliwości są ograniczone, a wielu kierowców nie podejmuje działań, aby uniknąć wypadków pomimo ostrzeżeń z pojazdu.

Sonda obejmuje obecnie 830 000 pojazdów, czyli prawie wszystko, co producent samochodów z Austin w Teksasie sprzedał w USA od początku roku modelowego 2014.

NHTSA poinformował, że wykrył 16 wypadków z pojazdami ratowniczymi i ciężarówkami ze znakami ostrzegawczymi, które spowodowały 15 obrażeń i jedną śmierć.

Śledczy ocenią dodatkowe dane, osiągi pojazdu i „zbadają stopień, w jakim Autopilot i powiązane systemy Tesla mogą zaostrzyć czynniki ludzkie lub zagrożenia bezpieczeństwa behawioralnego, podważając skuteczność nadzoru kierowcy” – podała agencja.

Analiza inżynierska jest ostatnim etapem dochodzenia iw większości przypadków NHTSA decyduje w ciągu roku, czy należy wycofać, czy sonda powinna zostać zamknięta.

W większości z 16 wypadków Teslas ostrzegał kierowców przed kolizją tuż przed zderzeniem. W około połowie przypadków zadziałało automatyczne hamowanie awaryjne, które przynajmniej spowolniło samochody. Średnio Autopilot zrezygnował z kontroli nad Teslasem mniej niż sekundę przed katastrofą, powiedział NHTSA w dokumentach szczegółowo opisujących sondę.

NHTSA powiedział również, że bada wypadki o podobnych wzorcach, które nie obejmują pojazdów uprzywilejowanych ani ciężarówek ze znakami ostrzegawczymi.

Agencja odkryła, że ​​w wielu przypadkach kierowcy trzymali ręce na kierownicy, jak wymaga Tesla, ale nie podjęli działań, aby uniknąć wypadku. Sugeruje to, że kierowcy stosują się do systemu monitorowania Tesli, ale to nie gwarantuje, że zwracają na to uwagę.

W wypadkach, w których dostępne jest wideo, kierowcy powinni widzieć pojazdy pierwszej pomocy średnio osiem sekund przed uderzeniem, napisała agencja.

Agencja będzie musiała zdecydować, czy w przypadku autopilota występuje usterka bezpieczeństwa przed podjęciem decyzji o wycofaniu.

Śledczy napisali również, że użycie lub niewłaściwe użycie przez kierowcę systemu monitorowania kierowcy „lub działanie pojazdu w sposób niezamierzony niekoniecznie wyklucza usterkę systemu”.

Agencja dokumentuje wszystko, ale mówi, że metoda Tesli, która zapewnia kierowcom uwagę, nie jest wystarczająco dobra, że ​​jest wadliwa i należy ją wycofać, powiedział Bryant Walker Smith, profesor prawa Uniwersytetu Południowej Karoliny, który studiuje automatyzację pojazdy.

„Naprawdę łatwo jest trzymać rękę na kierownicy i całkowicie oderwać się od prowadzenia pojazdu” – powiedział. Monitorowanie pozycji rąk kierowcy nie jest skuteczne, ponieważ mierzy tylko pozycję fizyczną. „Nie dotyczy ich zdolności umysłowych, zaangażowania ani zdolności reagowania”.

Podobne systemy innych firm, takich jak Super Cruise firmy General Motors, wykorzystują kamery na podczerwień do obserwowania oczu lub twarzy kierowcy, aby upewnić się, że patrzy w przyszłość. Ale nawet te systemy mogą nadal pozwalać kierowcy na wyłączenie się, powiedział Walker Smith.

„Potwierdzają to badania po badaniu” — powiedział. „Jest to ustalony fakt, że ludzie mogą wyglądać na zaangażowanych, a nie być zaangażowanych. Możesz trzymać rękę na kierownicy i możesz patrzeć w przyszłość i nie mieć wymaganej świadomości sytuacyjnej”.

W sumie agencja przeanalizowała 191 wypadków, ale usunęła 85 z nich, ponieważ brali w nich udział inni kierowcy lub nie było wystarczających informacji do przeprowadzenia ostatecznej oceny. Spośród pozostałych 106, główną przyczyną około jednej czwartej wypadków wydaje się być używanie autopilota w obszarach, w których ma on ograniczenia lub w warunkach, które mogą zakłócać jego działanie.

„Na przykład działanie na drogach innych niż drogi o ograniczonym dostępie lub działanie w warunkach słabej przyczepności lub widoczności, takich jak deszcz, śnieg lub lód” – napisała agencja.

Inni producenci samochodów ograniczają korzystanie ze swoich systemów do dzielonych dróg o ograniczonym dostępie.

Narodowa Rada Bezpieczeństwa Transportu, która również zbadała niektóre wypadki Tesli z 2016 r., zaleciła, aby NHTSA i Tesla ograniczyły użycie autopilota do obszarów, w których może on bezpiecznie działać. NTSB zaleciło również, aby NHTSA wymagała od Tesli lepszego systemu, aby upewnić się, że kierowcy zwracają uwagę. NHTSA nie podjęła jeszcze działań zgodnie z zaleceniami. NTSB może wydawać zalecenia tylko innym agencjom federalnym.

W oświadczeniu NHTSA powiedział, że obecnie nie ma żadnych pojazdów, które mogłyby jeździć samodzielnie. „Każdy dostępny pojazd wymaga, aby kierowca był człowiekiem przez cały czas, a wszystkie prawa stanowe nakładają na niego odpowiedzialność za działanie swoich pojazdów” – powiedziała agencja.

Systemy wspomagania kierowcy mogą pomóc w uniknięciu awarii, ale muszą być używane prawidłowo i odpowiedzialnie, powiedziała agencja.

Tesla wykonała aktualizację online oprogramowania Autopilot zeszłej jesieni, aby poprawić wykrywanie przez kamerę świateł pojazdów uprzywilejowanych w warunkach słabego oświetlenia. NHTSA zapytał, dlaczego firma nie wycofała.

NHTSA rozpoczęło dochodzenie w sierpniu zeszłego roku po serii wypadków od 2018 r., w których Teslas korzystający z firmowych systemów Autopilot lub Cruise Aware Cruise Control uderzył w pojazdy w miejscach, w których ratownicy używali migających świateł, flar, podświetlana tablica ze strzałkami lub stożki ostrzegające przed zagrożeniami.

FacebookTwitterLinkedin

Categories: IT Info