いつスカイネットにつながって暴走するかわかりませんし？

先月のこと、米陸軍は民間企業に対して、計画的なAI主導の半自律型戦車向けターゲティング・システムを改善する方法について、アイデアを要請しました。その要請の中で、陸軍は高度標的・致死性自動システム（ATLAS）が｢現在の手動プロセスより、少なくとも3倍速く目標を捕捉、識別、そして迎撃させる｣ことを可能にする手助けを要求したのでした。

ですがこの言葉は、AI駆動の殺戮マシーンの台頭について、不安を持つ人々を更に怖がらせることとなってしまいました。

怖がらせないよう文言を追加

Defense Oneの情報では、陸軍はそれに応えて、白書の呼びかけで免責事項を追加したとのことです。免責事項は、元の文言を修正することなく、陸軍は国防総省の方針が変わっていないことを説明するメモを追加しただけでした。

とりあえず、アメリカでは完全自律型の殺戮機械は依然として許されていません。そこには少なくともルール、またはポリシーがあるので、彼らのロボットはそれらの方針に従うはずです。そう、国防総省はまだ殺人ロボットを作っていますが、それら殺人ロボットは国防総省の｢倫理的基準｣を遵守しなければならないのです。

追加された免責事項のメモがこちらになります。

有人および無人プラットフォームを含む、兵器システムにおける自律および半自律機能の開発および使用はすべて、2017年に更新された国防総省の指令3000.09のガイドラインの対象となっています。この告知にある文言は、武器システムの自治に向けた、国防総省の方針の変更を表すものと理解されるべきではありません。このプログラムにおける機械学習および人工知能のすべての使用は、国防総省の法的および倫理的基準と一致していることを確認するために評価されます

なぜこれが重要なのでしょうか？ 国防総省指令3000.09は、人間が｢力の使用に関して適切なレベルの人間的判断を行使できる｣ことを要求しています。つまりこれは、米国が戦場に完全自律型ロボットを投入して、ロボット自身の判断で、誰を殺すか、生かすかを考えさせないようにする、ということを意味しています。ですがこの安全装置の仕組みは｢ループしている｣と言われることもあります。なぜなら、結局は人間が誰かを殺すかどうかについて、最終的な決定を下しているように見えるからです。

なぜか空より陸の兵器を恐れるアメリカ人

アメリカ合衆国は、少なくとも第二次世界大戦以降、戦争で攻撃武器としてロボット飛行機を使用してきました。しかし、何らかの理由で、21世紀のアメリカ人はロボットが空中にいるときよりも、地上にいることに脅威を感じています。おそらく、私たちが『ターミネーター2』のような映画を鑑賞したことで、現実的に感じたのでしょうね。特に国防高等研究計画局（DARPA）が、1980年代に実際にスカイネットのようなものを作ろうとしていたことを考えると尚更です。

実は大昔からドローンを活用している

米軍は、ベトナム戦争、最初の湾岸戦争でのイラク、アフガニスタン、第二次イラク戦争の間のイラク、ISISと戦ったときのシリア、その他多数の国々で、無人偵察機のドローンを使用してきました。さらには、ソマリアでのドローン攻撃は、ドナルド・トランプ大統領の下で急成長しました。にもかかわらず、それら空のロボットは2019年のアメリカ人にとって大した恐怖ではないのです。

国防総省は、今後も半自律的な武器をより機動的に、より賢く、そして最終的にはより致命的なものにするべく、ATLASのような目標捕捉システム技術を推し進めるでしょう。でも大丈夫です。殺戮マシーンたちはちゃんとポリシーを守るので、我々は枕を高くして眠ることができるのです。