Foto: NTSB

Tesla no piloto automático bate quando as mãos do motorista não foram detectadas na roda

Avaliando dois acidentes fatais com o Tesla e as perguntas que eles levantam sobre o Autopilot.

Aconteceu de novo: um Tesla com seu recurso de piloto automático envolvido estava envolvido em um acidente fatal.

O acidente, que aconteceu no dia 1º de março na Flórida, deixou o piloto da Tesla, de 50 anos, morto. Autoridades revelaram novos detalhes sobre o incidente na quinta-feira. O motorista ligou o piloto automático cerca de 10 segundos antes que o sedan Modelo 3 colidisse com um caminhão, de acordo com o National Transportation Safety Board. As mãos do motorista da Tesla não foram detectadas no volante por menos de oito segundos antes. O motorista do caminhão não se feriu.

O relatório do NTSB não indicou que o motorista da Tesla estava desatento e disse que a investigação está em andamento. Mas a notícia levanta mais questões sobre o marketing do Autopilot, da Tesla, o software de direção semi-autônomo da empresa.

O CEO da Tesla, Elon Musk, prometeu há muito tempo que a capacidade de auto-direção está a caminho – mas ainda não chegou. E os críticos argumentam que colocar o nome “Autopilot” em um recurso de assistência ao motorista pode levar as pessoas a uma falsa sensação de segurança, tornando-as menos propensas a ficarem totalmente alertas e, portanto, mais vulneráveis ​​a um acidente.

Acidentes diferentes

Existem algumas grandes diferenças entre as duas falhas. Por exemplo, os carros da Brown e da Banner tinham tecnologias de assistência ao motorista completamente diferentes, embora ambas fossem chamadas de piloto automático. O piloto automático do Brown’s Model S foi baseado na tecnologia fornecida pela Mobileye, uma startup israelense desde que foi adquirida pela Intel. A morte de Brown foi parcialmente responsável pelas duas empresas que se separaram em 2016. O modelo 3 da Banner foi equipado com uma versão de segunda geração do piloto automático que a Tesla desenvolveu internamente.

Isso sugere que a Tesla teve a chance de abordar esse chamado “caso extremo”, ou circunstância incomum, ao redesenhar o Autopilot, mas até agora não conseguiu fazê-lo. Após a morte de Brown, Tesla disse que sua câmera não reconheceu o caminhão branco contra um céu brilhante; a Administração Nacional de Segurança no Trânsito nas Estradas dos EUA (NHTSA) descobriu que Brown não estava prestando atenção à estrada e exonerou Tesla. Determinou que ele ajustasse o controle de velocidade de seu carro a 74 km / h cerca de dois minutos antes do acidente, e deveria ter pelo menos sete segundos para notar o caminhão antes de colidir com ele.

Investigadores federais ainda precisam tomar uma decisão na morte de Banner. Em um relatório preliminar divulgado em 15 de maio, o Conselho Nacional de Segurança no Trânsito (NTSB, na sigla em inglês) disse que a Banner acionou o piloto automático cerca de 10 segundos antes da colisão. “De menos de 8 segundos antes do acidente até o momento do impacto, o veículo não detectou as mãos do motorista no volante”, disse a NTSB. O veículo estava viajando a 68 mph quando caiu.

Resposta da Tesla

Em um comunicado, um porta-voz da Tesla o expressou de forma diferente, mudando o passivo “o veículo não detectou as mãos do motorista no volante” para o mais ativo “o motorista imediatamente tirou as mãos do volante”. O porta-voz não respondeu perguntas de acompanhamento sobre o que a empresa fez para resolver esse problema.

No passado, o CEO da Tesla, Elon Musk, culpou os acidentes envolvendo o Autopilot pelo excesso de confiança do motorista. “Quando há um acidente sério, é quase sempre, na verdade, talvez sempre, o caso de ser um usuário experiente, e a questão é mais de complacência”, disse Musk no ano passado.

A última queda ocorre em um momento em que Musk está divulgando os planos da Tesla para implantar uma frota de táxis autônomos em 2020. “Daqui a um ano, teremos mais de um milhão de carros com autônomos, software, tudo”, disse ele. em um evento recente do “Dia do Autonomia” para investidores.

Esses planos serão inúteis se os reguladores federais decidirem reprimir o Autopilot. Defensores do consumidor estão pedindo ao governo que abra uma investigação sobre o sistema avançado de assistência ao motorista. “O piloto automático não consegue enxergar o lado mais amplo de um veículo de 18 rodas ou não consegue reagir com segurança a ele”, disse David Friedman, vice-presidente de defesa do Consumer Reports, em um comunicado. “Esse sistema não pode navegar de forma confiável por conta própria e não consegue manter o motorista envolvido exatamente quando é mais necessário.”

Os especialistas em segurança do carro notam que os sistemas de controle de cruzeiro adaptativo, como o piloto automático, dependem principalmente do radar para evitar atingir outros veículos na estrada. O radar é bom em detectar objetos em movimento, mas não em objetos estacionários. Ele também tem dificuldade em detectar objetos como um veículo atravessando a rua sem se mover na direção do carro.

Saídas de radar de objetos detectados são às vezes ignoradas pelo software do veículo para lidar com a geração de “falsos positivos”, disse Raj Rajkumar, professor de engenharia elétrica e de computação da Universidade Carnegie Mellon. Sem estes, o radar “veria” um viaduto e relataria isso como um obstáculo, fazendo com que o veículo pise nos freios.

No lado de visão computacional da equação, os algoritmos que usam a saída da câmera precisam ser treinados para detectar caminhões que são perpendiculares à direção do veículo, ele acrescentou. Na maioria das situações de estrada, existem veículos para a frente, para trás e para o lado, mas um veículo perpendicular é muito menos comum.

“Essencialmente, o mesmo incidente se repete depois de três anos”, disse Rajkumar. “Isso parece indicar que esses dois problemas ainda não foram resolvidos.” Aprendizado de máquina e inteligência artificial têm limitações inerentes. Se os sensores “vêem” o que eles nunca ou raramente viram antes, eles não sabem como lidar com essas situações. “A Tesla não está lidando com as limitações bem conhecidas da IA”, acrescentou ele.

Com informações da CNN, USA Today, ARS Technica, Forbes


Deixe uma resposta

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Esse site utiliza o Akismet para reduzir spam. Aprenda como seus dados de comentários são processados.