米グーグルのスンダー・ピチャイ最高経営責任者（CEO）は2018年6月7日、人工知能（AI）利用に関する原則を発表し、武器や諜報（ちょうほう）活動へのAIの利用を禁止した。グーグルは米国防総省のドローン用AI開発プロジェクトに参加していたことを巡って社内外から批判を受けており、それらに応えた動きとなる。

ピチャイCEOの声明文でより興味深いのは、常識的な内容が並ぶ7項目のAI利用の目的事項ではなく、4項目からなる禁止事項だ。ピチャイCEOはAI利用の禁止事項として「人々を直接的に傷つけることを目的とした武器やそれに類するテクノロジーへの適用」「監視（サーベランス）を目的とした情報収集のためのテクノロジーへの適用」「国際法と人権を害するテクノロジーへの適用」を挙げた。

米メディアが2018年3月に、グーグルが米国防総省のドローン用AI開発プロジェクト「Maven」に参加していると報じて以来、グーグルは大きな批判にさらされていた。米国防総省のMavenは、ドローンが撮影した動画に写る被写体の動きをAIで識別するシステムの開発プロジェクト。「AIの兵器化」にグーグルが加担するものだとして、社外だけでなく社内の4000人以上の従業員がグーグルの経営陣を批判していた。今回、AI利用の目的事項と禁止事項を発表することで、AIの兵器化や諜報目的でのAI利用から距離を置く姿勢を明らかにしたことになる。

■政府や軍への協力は明言

ただしピチャイCEOは声明文で「当社は武器利用のためのAI開発はしていないが、今後も政府や軍には様々な分野で協力していくことは明言したい」と述べている。具体的な協力分野としては、サイバーセキュリティーや訓練、軍の募集、退役軍人の医療、捜索救助などを挙げた。政府や軍との取引を全面的に禁止すると、DARPA（国防高等研究計画局）やIARPA（情報高等研究計画局）などが進める研究開発プロジェクトにも参画できなくなる。こうした問題を考慮したもようだ。

またピチャイCEOは禁止事項として「全体的に害を引き起こす、または引き起こす可能性が高いテクノロジーへのAIの適用」を挙げているが、同時にこの禁止事項には「害をなすリスクがある場合でも、ベネフィットがリスクを実質的に上回っていると信じられる際には、安全に考慮しながらAI利用を進める」との例外も設けた。

具体的に何が例外となるかは明言していないが、自動運転技術などが該当しそうだ。自動運転車が事故を引き起こすリスクは否定できないが、自動運転車が事故を引き起こすリスクよりも、人間が自動車を運転するのに比べて事故を減らせる、目が見えなくても自動車を利用できるようになるなどといったベネフィットが上回っていれば、AIの適用を認めるといった運用が考えられる。

ピチャイCEOが挙げたAI利用の目的事項は以下の通りである。

(1)社会的に有益であること

(2)不公正な偏見を生み出したり助長したりしないこと

(3)安全を意識して設計・テストすること

(4)人々に対する説明責任を果たすこと

(5)プライバシー設計原則を組み込むこと

(6)科学的な基準を守ること

(7)これらの原則に合致する用途とすること

ピチャイCEOは「これらの原則は理論的な概念ではなく、当社の研究開発や製品開発を統制する具体的な基準だ」と述べ、同社がこれらを順守する方針を示した。

（シリコンバレー支局 中田敦）

［日経 xTECH 2018年6月8日掲載］