Veículos autônomos são o assunto do momento quando se fala em automóvel, e várias empresas já testam em vias públicas de alguns países, como os Estados Unidos, protótipos capazes de rodar sem motorista.

Este é o caso do micro-ônibus da companhia francesa Navya, que fez sua estreia nesta semana de uma forma constrangedora em Las Vegas.

Falha humana

Logo na primeira hora de operação, o ônibus acabou colidindo com um caminhão, apavorando os passageiros, que não se feriram, assim como o motorista do veículo de carga. Segundo relato das pessoas que estavam no micro-ônibus, a colisão aconteceu porque o autônomo percebeu a provável colisão e freou para evitá-la, mas o elemento humano, o motorista do caminhão, não.

Jace Radke, porta-voz da cidade de Las Vegas, afirmou à agência de notícias BBC que a batida foi leve e que o ônibus voltaria a rodar no dia seguinte, depois de passar por uma inspeção. "O caminhão de entregas estava saindo de uma viela. O ônibus fez o que deveria fazer e parou. Infelizmente, o motorista não conseguiu fazer o mesmo e colidiu", afirmou.

Por meio de um comunicado, as autoridades de trânsito da cidade disseram que "se o caminhão tivesse o mesmo equipamento inteligente que o ônibus, o acidente teria sido evitado."

Esta não é a primeira vez que carros autônomos sofrem acidentes nos Estados Unidos — e, até agora, a maioria dos incidentes reportados naquele teve a culpa atribuída ao "elemento humano".

No Twitter, a agência de viagens AAA, patrocinadora do "busão" autônomo, também colocou a culpa no motorista do caminhão, atribuindo o acidente à "falha humana". A empresa ressaltou que apenas um para-choque ralado do veículo de passageiros foi o resultado do acidente. A emissora também salientou que o Navya tinha um funcionário a bordo para intervir em caso de emergência.

A prefeitura de Las Vegas foi outro órgão que emitiu comunicado, também colocando a culpa no motorista humano, dizendo que ele não parou quando deveria.

Acidentes com protótipos autônomos não têm sido tão raros assim, com incidentes já registrados em veículos da Waymo, subsidiária do Google, que, em pelo menos um caso, admitiu uma falha do sistema de inteligência artificial do veículo. Esses casos não tiveram maior gravidade, mas um acidente fatal com motorista de um Tesla Model S com função semiautônoma ativada na Califórnia (EUA), no ano passado, causou desconfiança sobre a confiabilidade dos carros robôs.

Quanto a esse incidente, autoridades locais de trânsito responsabilizam o condutor do Tesla, que estaria assistindo a um DVD durante o acidente. Na época, a Tesla também de defendeu, dizendo que seu sistema semiautônomo está em fase beta e requer, como as autoridades de trânsito ainda exigem nos EUA e em outros países, que o motorista esteja sempre atento para reassumir a direção em caso de necessidade.