2016年06月24日 13時00分00秒

By John Ragai

暴走したトロッコの先で線路が2手に別れていて、一方には1人の作業員、もう一方には5人で作業中のグループがおり、トロッコの進路を変えるしかないならば、あなたは「1人を殺して5人を救うのか？」それとも「5人を殺して1人を救うのか？」という倫理的問題が「トロッコ問題」です。このトロッコ問題が自動運転カーで起こった場合、自動運転カーはどのような判断を下すのかということが議題に上がっていて、全自動運転カーのトロッコ問題について議論を交わす「Moral Machine」というサービスが公開されています。

Moral Machine

http://moralmachine.mit.edu/

Moral Machineは、ユーザーが考えたさまざまな事故のシチュエーションに対するあなたの行動を2択の答えから選び、他のユーザーのモラルと比較したり、議論したりできるサービスです。



画面中央下にある「Start Judging」をクリックして、ユーザーが考案したトロッコ問題の事故シチュエーションに挑んでみます。



最初の問題は左が「誰も乗車していない自動運転カーがまっすぐ進み3人の老人がひかれて死亡」で、右が「老人をよけて右側の道路につっこみ大人2人と子ども1人が死亡」という状況。この中から自動運転カーがすべき行動を選択します。選択するには画像をクリックすればOKです。



答えを選択すると次の問題へ。次の問題は「泥棒をよけて右側にいる家族が全員死亡」と「まっすぐ進んで3人の泥棒が死亡」という状況。段々と選ぶのがつらくなってきました。



次の問題は「4人の家族が乗車した自動運転カーが障害物をよけて右側にいた犬が死亡」と「犬をひかないように障害物に衝突して家族全員死亡」という2択。どれも、少し考えたくらいではなかなか答えられない質問になっています。



このような問題を13問回答すると結果が表示されます。



例えば、今回の結果では死んだ回数が最も少なかったのが「女性」で、死んだ回数が最も多かったのが「男性」でした。



また、殺してしまう人の数が判断に影響を与えたかどうかを示すバーでは、自分の判断は「数が大きな判断材料になっていた」ということが示されています。バーにある茶色の「Others」は他のユーザーの平均値になり、他のユーザーの倫理的思考と比較できるのも面白いポイント。



……という感じで、自動運転カーが絶対に人を殺してしまうような状況になったときに、あなたは誰を犠牲にすればいいと思っているのか、その倫理観を問われるのがMoral Machineです。他人がどのような倫理観を持っているのかを知ることができるのは、なかなか興味深いところです。