Tecnologia

Humanos batem nos carros autônomos e revelam falha crucial

O carro autônomo, aquela criação de ponta que supostamente levaria a um mundo sem acidentes, está conseguindo exatamente o oposto no momento


	Carro autônomo do Google: será deveriam ensinar os carros a cometerem infrações de tempos em tempos para evitar problemas?
 (Divulgação/Google)

Carro autônomo do Google: será deveriam ensinar os carros a cometerem infrações de tempos em tempos para evitar problemas? (Divulgação/Google)

DR

Da Redação

Publicado em 18 de dezembro de 2015 às 19h46.

O carro autônomo, aquela criação de ponta que supostamente levaria a um mundo sem acidentes, está conseguindo exatamente o oposto no momento: os veículos acumulam uma taxa de acidentes duas vezes maior que a dos motoristas humanos.

A falha?

Eles obedecem a lei o tempo todo, ou seja, sem exceção. Esta pode parecer a melhor forma de programar um robô para dirigir um carro, mas boa sorte para tentar isso em uma rodovia caótica e engarrafada com o trânsito fluindo bem acima do limite de velocidade.

Isso tende a não funcionar bem. Como os acidentes se acumularam -- todos arranhões de menor importância, por enquanto --, um argumento está ganhando força entre os programadores da Google Inc. e da Universidade Carnegie Mellon, entre outros: será que eles deveriam ensinar os carros a cometerem infrações de tempos em tempos para evitar problemas?

“Esse é um debate constante dentro do nosso grupo”, disse Raj Rajkumar, codiretor do laboratório de pesquisa colaborativa sobre direção autônoma General Motors-Carnegie Mellon, em Pittsburgh. “Basicamente decidimos respeitar o limite de velocidade. Mas quando você sai e dirige no limite de velocidade na estrada, praticamente todos pelo caminho passam voando por você. E eu seria uma dessas pessoas”.

No ano passado, Rajkumar ofereceu test drives a membros do Congresso no SUV Cadillac SRX autônomo de seu laboratório. O Cadillac teve um desempenho perfeito, exceto quando teve de pegar a rodovia interestadual 395 e atravessar três pistas de tráfego em 137 metros para se dirigir ao Pentágono.

As câmeras e os sensores de laser do carro detectaram o trânsito em uma visão de 360 graus, mas não souberam como confiar que os motoristas abririam espaço em meio ao tráfego incessante, por isso o cérebro humano teve que assumir o controle para completar a manobra.

“Nós acabamos sendo cautelosos”, disse Rajkumar. “Não queremos nos envolver em um acidente porque isso seria notícia de primeira página. As pessoas esperam mais dos carros autônomos”.

Sem culpa

Ocorre que suas taxas de acidentes são duas vezes mais elevadas que as dos carros normais, segundo um estudo do Instituto de Pesquisa em Transporte da Universidade de Michigan, em Ann Arbor, Michigan.

Os veículos autônomos nunca tiveram culpa, apontou o estudo: eles normalmente são atingidos por trás em acidentes a baixas velocidades por humanos desatentos ou agressivos desacostumados aos motoristas-robôs que sempre seguem as regras e procedem com cautela.

O governo da Califórnia está exigindo cautela no emprego de carros autônomos. O estado americano publicou nesta semana uma proposta de regramento que exigiria que sempre haja um humano pronto para assumir o volante e também obriga as empresas criadoras dos carros a emitirem relatórios mensais sobre o comportamento deles.

A Google -- que desenvolveu um modelo sem volante, nem pedal de acelerador -- disse que está “muito desapontada” com as regras propostas, que poderiam estabelecer o padrão para as regras dos carros autônomos nos EUA.

Os carros da Google se envolveram em 17 acidentes de menor importância em 3,2 milhões de quilômetros de testes e respondem pela maior parte dos acidentes reportados, segundo o estudo da Universidade de Michigan.

Isso se deve, em parte, ao fato de a empresa estar realizando testes principalmente na Califórnia, onde os acidentes envolvendo carros autônomos precisam ser reportados.

O incidente mais recente reportado ocorreu em 2 de novembro em Mountain View, na Califórnia, onde fica a sede da Google, quando um SUV Google Lexus autônomo tentou virar à direita com o farol vermelho.

O carro parou completamente, ativou o pisca-pisca e começou a se arrastar lentamente até a intersecção para ter uma visão melhor, segundo um relatório que a empresa postou on-line.

Outro carro parou atrás e também começou a andar para a frente, colidindo com o SUV a 6 km/h. Não houve feridos, apenas pequenos danos em ambos veículos.

Carro-robô é parado

Dez dias depois, um policial de moto de Mountain View notou que o trânsito estava se acumulando atrás de um carro da Google que trafegava a 24 milhas por hora (38 km/h) em uma zona com limite de velocidade de 35 milhas por hora (56 km/h).

Ele se aproximou e se tornou o primeiro policial a parar um carro-robô.

Ele não emitiu multa -- a quem a entregaria? --, mas alertou os dois engenheiros que estavam a bordo a respeito do perigo que estavam criando.

“A coisa certa seria que esse carro abrisse caminho, permitisse que o trânsito fluísse e depois retornasse para a pista”, disse o sargento Saul Jaeger, chefe da unidade de trânsito do departamento de polícia.

“Eu gosto quando as pessoas erram para o lado da cautela. Mas é possível que algo seja cauteloso demais? Sim, é possível”.

Acompanhe tudo sobre:AutoindústriaCarrosRobôsVeículos

Mais de Tecnologia

China lança programa para proteger pessoas e empresas dos algoritmos 'injustos'

Huawei lança smartphone com sistema operacional próprio em resposta às sanções dos EUA

Xiaomi Redmi Note 12S: quanto vale a pena pagar na Black Friday?

Musk pode comprar o canal MSNBC? Bilionário faz memes sobre possível aquisição