Teslas com sistemas de condução parcialmente automatizados estão um passo mais perto de serem recolhidos depois que os EUA elevaram sua investigação sobre uma série de colisões com veículos de emergência estacionados ou caminhões com sinais de alerta. A Administração Nacional de Segurança no Tráfego Rodoviário disse que está atualizando a sonda Tesla para uma análise de engenharia, outro sinal de maior escrutínio da fabricante de veículos elétricos e sistemas automatizados que realizam pelo menos algumas tarefas de direção.
Os documentos postados pela agência levantam alguns problemas sérios sobre o sistema de piloto automático da Tesla. A agência descobriu que está sendo usado em áreas onde suas capacidades são limitadas e que muitos motoristas não estão tomando medidas para evitar acidentes apesar dos avisos do veículo.
A sonda agora abrange 830.000 veículos, quase tudo que a montadora de Austin, Texas, vendeu nos EUA desde o início do ano modelo de 2014.
NHTSA informou que encontrou 16 colisões em veículos de emergência e caminhões com sinais de alerta, causando 15 feridos e uma morte.
Os investigadores avaliarão dados adicionais, desempenho do veículo e “explorarão o grau em que o piloto automático e os sistemas Tesla associados podem exacerbar fatores humanos ou riscos de segurança comportamental, minando a eficácia da supervisão do motorista”, disse a agência.
Uma análise de engenharia é o estágio final de uma investigação e, na maioria dos casos, a NHTSA decide dentro de um ano se deve haver um recall ou se a investigação deve ser encerrada.
Na maioria dos 16 acidentes, os Teslas emitiram alertas de colisão para os motoristas pouco antes do impacto. A frenagem automática de emergência interveio para pelo menos desacelerar os carros em cerca de metade dos casos. Em média, o Autopilot desistiu do controle dos Teslas menos de um segundo antes do acidente, disse a NHTSA em documentos que detalham a investigação.
A NHTSA também disse que está investigando acidentes envolvendo padrões semelhantes que não incluem veículos de emergência ou caminhões com sinais de alerta.
A agência descobriu que, em muitos casos, os motoristas estavam com as mãos no volante como a Tesla exige, mas não tomaram medidas para evitar um acidente. Isso sugere que os motoristas estão cumprindo o sistema de monitoramento da Tesla, mas não garante que eles estejam prestando atenção.
Em acidentes em que o vídeo está disponível, os motoristas devem ter visto os veículos de socorristas uma média de oito segundos antes do impacto, escreveu a agência.
A agência terá que decidir se há um defeito de segurança no piloto automático antes de solicitar um recall.
Os investigadores também escreveram que o uso ou uso indevido de um motorista do sistema de monitoramento do motorista”ou a operação de um veículo de maneira não intencional não exclui necessariamente um defeito do sistema”.
O documento da agência praticamente diz que o método da Tesla de garantir que os motoristas prestem atenção não é bom o suficiente, que está com defeito e deve ser recolhido, disse Bryant Walker Smith, professor de direito da Universidade da Carolina do Sul que estuda automação veículos.
“É muito fácil ter a mão no volante e ficar completamente desprendido de dirigir”, disse ele. Monitorar a posição da mão do motorista não é eficaz porque mede apenas uma posição física.”Não está preocupado com sua capacidade mental, seu engajamento ou sua capacidade de responder.”
Sistemas semelhantes de outras empresas, como o Super Cruise da General Motors, usam câmeras infravermelhas para observar os olhos ou o rosto de um motorista para garantir que ele esteja olhando para frente. Mas mesmo esses sistemas ainda podem permitir que um motorista saia da zona, disse Walker Smith.
“Isso é confirmado em estudo após estudo”, disse ele.”Isso é um fato comprovado de que as pessoas podem parecer engajadas e não engajadas. Você pode ter a mão no volante e pode estar olhando para frente e não ter a consciência situacional necessária.”
No total, a agência analisou 191 acidentes, mas removeu 85 deles porque outros motoristas estavam envolvidos ou não havia informações suficientes para fazer uma avaliação definitiva. Dos 106 restantes, a principal causa de cerca de um quarto dos acidentes parece ser a execução do Autopilot em áreas onde tem limitações ou em condições que podem interferir no seu funcionamento.
“Por exemplo, operação em estradas que não sejam rodovias de acesso limitado, ou operação em ambientes de baixa tração ou visibilidade, como chuva, neve ou gelo”, escreveu a agência.
Outras montadoras limitam o uso de seus sistemas a rodovias divididas de acesso limitado.
O National Transportation Safety Board, que também investigou alguns dos acidentes da Tesla que datam de 2016, recomendou que a NHTSA e a Tesla limitem o uso do Autopilot a áreas onde ele possa operar com segurança. O NTSB também recomendou que a NHTSA exija que a Tesla tenha um sistema melhor para garantir que os motoristas prestem atenção. A NHTSA ainda não agiu de acordo com as recomendações. O NTSB só pode fazer recomendações a outras agências federais.
Em um comunicado, a NHTSA disse que não há veículos disponíveis para compra hoje que possam dirigir sozinhos. “Todo veículo disponível exige que o motorista humano esteja no controle o tempo todo, e todas as leis estaduais responsabilizam o motorista humano pela operação de seus veículos”, disse a agência.
Os sistemas de assistência ao motorista podem ajudar a evitar acidentes, mas devem ser usados de forma correta e responsável, disse a agência.
A Tesla fez uma atualização online do software Autopilot no outono passado para melhorar a detecção da câmera de luzes de veículos de emergência em condições de pouca luz. A NHTSA perguntou por que a empresa não fez um recall.
A NHTSA iniciou sua investigação em agosto do ano passado após uma série de acidentes desde 2018, nos quais Teslas usando os sistemas de piloto automático ou de controle de cruzeiro com reconhecimento de tráfego da empresa atingiram veículos em cenas em que os socorristas usavam luzes piscantes, sinalizadores, um seta iluminada ou cones alertando sobre perigos.
FacebookTwitterLinkedin