米Googleが開発中の自動運転車が“安全運転すぎる”せいで事故に遭う――そんな事例がテスト走行中に続発しているという。米New York Timesが伝えている。

Google本拠地マウンテンビューの路上を走るプロトタイプ

今年8月、横断歩道を渡ろうとして待っている歩行者を見つけた自動運転車は、ブレーキをかけて一時停止した。歩行者は無事だったが、自動運転車は後ろから来た有人のセダンに追突されてしまった。この事故で、自動運転車に乗っていたGoogle社員は軽いむち打ち症で病院に送られたという。

横断歩道の近くに歩行者がいれば、クルマはその手前で一時停止することが交通法規で定められている（日本の法律でも同じだ）。一方、周囲の状況によっては注意しながら通過した方が安全だとドライバーも歩行者も理解している。しかし、Googleの無人車は交通法規を文字通り守るようプログラムされているため、このような事故が起きてしまったというのだ。

自動運転車にまつわるトラブルは今回だけの特異なケースではない。2009年のテスト走行では、交差点を通過する際に他のクルマが完全に停止してくれなかったために、自動運転車はいつまでも待ち続けるはめになってしまったという。

米カリフォルニア大学サンディエゴ校デザイン研究所のディレクターであるドナルド・ノーマン氏は、NYTの記事で「問題は、自動運転車があまりにも安全すぎることなのです」と指摘している。「自動運転車は“適当さ”を知らなければいけません。そしてその適当さは、人々の文化によって変わるのです」（ノーマン氏）。

また、Googleで自動運転車のテスト走行を担当しているトム・サプル氏は「Googleの自動運転車は常に法規に従うが、他のクルマの動きについて『なぜそうするのか』が分からないんだ」と話している。

NYTによると、Googleの自動運転車は開発がスタートした09年から計16回の事故を起こしている。その多くはフェンダーの破損で、同社によれば「（周囲の）人間側のミス」が原因だという。