自動運転車両には人間のドライバーには到底できない認知・判断・操作が可能だ。例えば、二手に分かれた道路の左に5人、右に1人の歩行者がいて、どちらかをはねてしまうことが避けられない場合、人間は5人死なせるより1人死なせるほうがよいと頭でわかっていても、それならと1人をはねることができない。あるいははねてしまって苦悩する。AIなら瞬時に賠償額まで比較して、どちらを選ぶべきかを決めることができる。しかし、そういうクルマを、時代を、人々は選ぶのだろうか……。自動運転の制度的課題を研究している法政大学法科大学院教授・今井猛嘉先生に聞いた。

本稿は2016年10月発売の増刊号『GQ CARS Vol.2』に掲載した記事です。

トロッコ問題パターン1（5人はダメで1人ならOK？）

──クルマを運転中、直進すれば5人をはねて死なせ、ステアリングを右に切れば1人をはねて死なせるにとどまる。しかも、どちらもはねずに停止することはできないといった場合にどうする？ “トロッコ問題”のいわばクルマ版ですが、こういう場合、自動運転車両はどういう選択をするようにプログラミングされるべきなのでしょうか？

今井猛嘉（以下、今井）：まず人間が運転している場合、5人はねるのを避け、1人をはねた場合、緊急避難として違法ではありません（刑法37条1項）。これは功利主義という考えで、5人が亡くなることと1人が亡くなることの社会的損失を比べ、損失が小さいほうを選んだ場合には罰しないという考え方です。

──功利主義は公益主義ともいいますが、個人よりも国益、公益を優先させるような考え方ですね。ここだけを見ると刑法はとてもドライに思えますね。

今井：冷たい考え方に思える時もあります。これに対し、例えばドイツのカント主義のように1人でも死なせれば違法で、たとえ自爆してでも良心に従い、他者を死なせるべきではないという考え方もあります。