A Tesla está se preparando para lançar uma atualização abrangente para seu modo”Full Self Driving”que estenderia o teste beta do recurso para mais clientes e áreas. Mas antes disso, a montadora precisa resolver alguns “problemas básicos de segurança”, disse Jennifer Homendy, chefe do Conselho Nacional de Segurança de Transporte dos EUA, em uma entrevista recente com o Wall Street Journal .

Full Self-Driving é uma versão mais avançada do sistema de direção assistida da Tesla projetado para rodar em rodovias, o piloto automático. Apesar de seus homônimos, nenhuma das versões do software de assistência ao motorista da Tesla é totalmente autônoma, e a Tesla avisa que um motorista humano deve permanecer alerta ao volante e pronto para assumir o comando a qualquer momento.

Homendy chamou de”enganoso e irresponsável”a Tesla anunciar seu software como”totalmente autônomo”, acrescentando que a empresa”claramente enganou várias pessoas para que usem indevidamente e abusem da tecnologia”.

Uma versão beta do modo Full Self-Driving lançada em outubro de 2020 para alguns motoristas Tesla selecionados. Depois de anunciar planos para um lançamento mais amplo até o final de setembro, o CEO da Tesla, Elon Musk, disse na sexta-feira que os motoristas que desejam experimentar a versão mais recente do modo Full Self-Driving terão acesso a um “botão de solicitação de beta” por volta de 1º de outubro.

“O botão beta solicitará permissão para avaliar o comportamento ao dirigir usando a calculadora de seguros Tesla”, escreveu ele no Twitter . “Se o comportamento ao dirigir for bom por 7 dias, o acesso beta será concedido.”

A atualização também deve adicionar novas ferramentas para ajudar os motoristas a navegar nas ruas da cidade, bem como nas rodovias. Mas Homendy acredita que essa mudança é perigosamente prematura:

“As questões básicas de segurança precisam ser resolvidas antes de serem expandidas para outras ruas da cidade e outras áreas”, disse ela ao Journal.

O NTSB, que pode conduzir investigações e compartilhar recomendações, mas não tem autoridade regulatória, investigou anteriormente três acidentes fatais do Tesla que envolveram o sistema de piloto automático da empresa. Ele lançou um quarto inquérito na sexta-feira depois que duas pessoas morreram em um acidente de veículo envolvendo um Tesla Model 3 em Coral Gables, Flórida. Em fevereiro de 2020, o conselho determinou que o software Autopilot da Tesla era um dos possíveis causas por trás de um acidente fatal em 2018 em Mountain View, Califórnia, onde o motorista estava jogando um jogo para celular quando ocorreu o incidente.

Em 2017, o NTSB aconselhou a Tesla e cinco outras montadoras a melhorar a segurança de seus veículos semiautônomos para que seja mais difícil para os motoristas utilizá-los indevidamente. As outras cinco empresas responderam e concordaram em adotar salvaguardas mais rígidas. Tesla por si só ignorou as recomendações do NTSB, embora tenha trabalhado em alguns de seus recursos de segurança nos anos desde então, como aumentar a frequência de alertas se um motorista usando o piloto automático tirar as mãos do volante.

Tesla não respondeu imediatamente ao pedido de comentário do Gizmodo. A empresa parou de responder às perguntas da mídia desde a dissolução de seu departamento de RP em outubro de 2020 .

Categories: Wordpress