たとえば、大通りで自動車を走らせているときに、ブレーキが利かなくなったとしよう。恐怖が込み上げてくるなか、子どもの集団が道になだれ込んでくる。あなたならどうする？

A. 道を逸れてフローズンヨーグルト大型専門店に突っ込み、自らの命を捨ててクルマをトッピングまみれにし、子どもたちの命を優先する。

B. 道にいるのは「トウモロコシの子どもたち」だとみなし、集団の中をクルマを走らせ子どもたちを殺し、自分自身の命を救う。

まともな考えをもった人間なら、もちろん前者を選ぶだろう。たとえ殺意に満ちたちびっ子農夫でも、彼らには権利があるのだ。

しかし、自動運転の自動車は正しい選択をするのだろうか? おそらくするだろう。しかし、たとえしたとしても、子どもを救うように機械にプログラミングすることで、同時に運転手を殺すように機械にプログラミングすることにもなる。

このパラドックスはトロッコ問題として知られている。ロボットカーは完全に交通事故をなくせないというだけでなく、非常にまれではあるが、ロボットカーが誰を犠牲にするかを選ぶことになるのだ。そして、明日の道路をいまよりもはるかに安全な場所にするためには、全員がその犠牲の対象になる。

自律走行車は、数え切れないほどの人間の命を救う。人類にはそのテクノロジーが必要だ。米国だけでも、毎年30,000人以上が交通事故で亡くなっており、世界ではその数は100万を超える。人間の運転は、恐ろしいほど下手なのだ。翻って、機械には整合性がありきちんと計算されていて、当然ながら酒に酔ったり、怒ったり、気が散ったりすることがない。

とはいえ、「自律」は必ずしも全ての人を救えはしない。テクノロジーは決して完璧にはならないのだ。そして、社会はその事実を、当のテクノロジーが現れる前に十分に理解しておく必要がある。あるいは、ロボットカーはある「大義」のためにあると理解しなければならないかもしれない。

まさにこの課題を研究しているMITメディアラボのイヤド・ラーワンは、次のように話す。

「市民を説得するには、皆が何に悩んでいて、そこにはどんな心理的メカニズムが作用しているかを理解するところから始めなければなりません」

冒頭のフローズンヨーグルトの実験では、ほとんどの人間が群衆を助けるために自分の命を犠牲にすることを選ぶだろう。しかし、（自律走行車が）搭乗者である自分自身を殺す決断を下しうることを知っていれば、ほとんどの人間はそんなクルマは買わないだろうとラーワンは気づいた。なぜならそれはあまりにも理不尽だからだ。

こうした状況は、常に起きることではない。全体的に見れば、自分自身で運転するよりも機械の手に任せるほうがよっぽど安全である。しかし、この発見により、深刻な問題が持ち上がる。ロボットカーが道路を走る準備はすぐにでも整うかもしれないが、人間のほうは、ロボットカーに付随する倫理的課題を受け入れる準備ができていないのだ。

しかし、公平を期すために言うならば、これは自動運転の改革ではまだ初期の段階だ。研究者らが一般認識に関してもっと多くのデータを集める必要があり、そして、その次に自動車メーカーが顧客に広める必要がある。

「みんな学んでいる最中なんだと思います」とラーワンは言う。「市民もみんな学んでいるし、規制を設ける機関も学んでいるところですし、自動車メーカーだって学んでいます」と。これはつまり、当面のあいだは、フローズンヨーグルト大型専門店が、情け容赦ないロボットカーの脅威から守られていることを意味している。そう、当面のあいだは。