攻撃対象を、人間でなく「機械」が判断する。ホーキング博士など著名な科学者たちが、こうした高度な「自律型の兵器システム」に対する懸念を表明した。「国際人工知能会議」で公開状が公表される予定だ。

<< 下に続く >>

誰を攻撃するかを人間でなく機械が判断する。世界各国の政府に対し、こうした自律型兵器の開発を禁止して、「軍事AI兵器競争」を防ぐよう求める公開状に、科学技術分野における膨大な数の著名人たちが署名している。

この公開状は、ブエノスアイレスで7月25日から31日まで開催中の「国際人工知能会議（IJCAI）」で、7月28日（現地時間）に公開される予定だ。

署名欄には、数多くの人工知能（AI）やロボット工学の研究者が名を連ねている。スティーヴン・ホーキング、イーロン・マスク、ノーム・チョムスキー、ウォズことスティーヴ・ウォズニアックらだ。

この公開状は、IJCAIの席で、「Future of Life Institute（FLI）」という研究所が提出することになっている。この研究所には、マスク氏が2015年1月に1,000万ドルを寄付（日本語版記事）して話題になった。

公開状は、本来は人が操作しなければ機能しないロボットや輸送機が、人の操作を不要とするスマートな自律型兵器につくり変えられることを懸念している。巡航ミサイルや、リモート操縦によるドローンは、「標的の判断はすべて人間が行う」ため許容できるが、人間の介入なしに戦闘や殺害が可能な完全に自律型の兵器の開発は、芽のうちに摘み取る必要があると主張している。

公開状では、自律型兵器と化学兵器・生物兵器戦争との著しい類似性についても指摘されている。

なお、マスク氏とホーキング博士は、兵器だけでなく一般的なAIに関しても、その危険性について警告している。マスク氏はAIの潜在的な危険は核兵器よりも大きい（日本語版記事）と述べている。ホーキング博士は、AIは「われわれの存在に対する脅威」だと述べている。

自律型兵器、およびAI全般について懸念される主な問題は、急速に変容することだ。いったん高度なAI、つまり誰を攻撃するかを自身で判断できる兵器システムをつくってしまえば取り返しがつかなくなる。火薬も核兵器も、もはや封じ込めることはできない。自律型兵器も同じことなのだ。

関連記事：米空軍ドローンパイロットが抱える「ストレス」の原因