急な手動運転への切り替えはNG！

急速に実現に向けて進歩しつつある自動運転車ですが、克服すべき課題はテクノロジーだけではありません。行政、法律といった分野でも早急な対応が求められる一方で、｢AIにどのような倫理ルールを持たせるべきか｣という抽象的かつ非常に重要な議題も残っております。

そんな中、ドイツ政府が招集した専門家による委員会が｢自動運転車に関する倫理ルール20項目｣を発表しました。参加したメンバーには刑法、工学、倫理といった分野の著名な教授や専門家たちや消費者団体のリーダーに検事などが名前を連ねています。20の倫理ルールの中には｢人身の保護が何によりも優先される｣といった常識的な範囲のものから、｢避けられない事故が起きた場合、人間の年齢、性別、心身の状態などをカテゴライズして考慮することを厳しく禁じる。一般レベルでのルールとして犠牲者の数を減らすよう挙動する、というものは受け入れられる｣というこれまでの抽象的な議論よりもほんの少し踏み込んだルールも見られます。自動運転システムが事故が避けられないと判断したときに、システムに｢誰が助かるか｣が定められているとすれば、｢命の重さ｣が定められていることになりますからね…。そうではなく、より中立的なスタンスで倫理ルールは策定されなければならないというのには納得できます。

自動運転車が誰を救うべきかに関して、MITが以前行ったアンケートでは｢交通事故で命を失うのが年寄りだったら｣｢子どもだったら｣｢妊婦だったら｣とド直球で命の重さを尋ねていましたね。誰かを選ばないといけない場合、人によってこれらの回答が異なるのは当たり前です。今回の倫理ルールでは｢そこは選べないようにする｣という基本方針が提案された形です。

他にも｢完全に人間の手を必要としない自動運転システムと、自動運転に切り替えられるタイプの自動運転システムは、確実に区別ができるようにデザインされないといけない｣｢人間とコンピューターのどちらに責任があるかが常にはっきりと区別できないといけない。（アクセルやブレーキの）タイミングといった責任の配分に関するデータは記録・保存されないといけない｣といったルールから、｢運転手は必要な証明書を携帯していないといけない｣｢人々は自動運転車に関する最新のテクノロジーや開発状況、どんな団体によって監察されているかといった情報を可能な限り透明な方法で知る権利がある｣といったルールまで、行政や消費者権利の視点も入り混じったものとなっています。

運転手へ突然コントロールを移す必要性（“緊急事態”）がほぼ存在しないようにソフトウェアとテクノロジーはデザインされなくてはいけない。（中略）人間側がシステムに適応するために努力をするのではなく、人間のコミュニケーション性質にシステムが近づくように設計されていないといけない。

といった｢なるほど...確かに｣といった指摘もされています。確かに緊急時などに人間的な直感とは反する特殊な操作が必要になるのは良くなさそうです。コンピューターの効率に人間の挙動が制限されるのではなく、人間にとってナチュラルな挙動にシステムが合わせないといけない、ということですね。

ルールが適応される分野も具体性もかなりバラバラですが、こういった未知の領域はとにかく｢えいやっ！｣と最初の叩き台が出されない限りは先に進まないもの。ドイツ政府が積極的に具体的なガイドラインを作ろうとしているのは非常に良いことですね。

Image: Shutterstock

Source: Bericht der Ethik-Kommission via TNW

（塚本 紺）