Phil Stewart

６月５日、米軍は人工知能（ＡＩ）を活用した秘密研究への投資を加速している。写真は２０１４年、ニューヨークで退役軍人の日の軍事パレード（２０１８年 ロイター/Mike Segar）

［ワシントン ５日 ロイター］ - 米軍は人工知能（ＡＩ）を活用した秘密研究への投資を加速している。狙いは、北朝鮮などによる核搭載可能ミサイル発射の予測、そして移動式発射装置の追尾や捕捉を支援することだ。

この取組みについては、ほとんど報じられておらず、公表されている細部についても、国防総省の最新予算において、ほとんど理解不可能な専門用語の中に埋もれている。

だが、この研究に詳しい米当局者は、潜在的な核ミサイル攻撃に対する防衛を強化するため、どのようにＡＩ主導のシステムを開発していくべきかについて多数の機密計画が進行中だとロイターに語った。

こうした研究が成功すれば、コンピューターシステムが自律的に思考することが可能となり、人間の能力を超えたスピードと精度で衛星画像を含む膨大な量のデータを解析して、ミサイル発射準備の兆候を探ることが可能になると、米当局者も含めた複数の情報提供者は語った。研究が機密指定であるため、彼らは匿名を希望した。

事前警告があれば、米国政府は外交的な選択肢を模索することもできるし、攻撃が差し迫っている場合には、敵ミサイル発射前に米軍が破壊、あるいは迎撃する余裕も生まれる。

「発射前にミサイルを発見し、ミサイル発射をいっそう困難にさせるために、できる限りのことをするべきだ」と当局者の１人は言う。

複数の米国当局者と予算関係文書によれば、ＡＩ主導のミサイル関連プログラムのうち１件だけに限っても、トランプ政権は来年度予算を従来の３倍以上に当たる８３００万ドル（約９１億円）とすることを提案している。こうした予算の増額はまだ報道されていない。

予算額自体は依然として比較的小さいとはいえ、軍事面で積極性を増すロシアや、長年の敵国である北朝鮮の核兵器による脅威に直面する米国にとって、ＡＩを活用したミサイル対策システム研究の重要性が高まっていることを示している。

ＡＩ技術を推進するボブ・ワーク元国防副長官は、具体的なプロジェクト名には触れないものの、「ＡＩと機械学習によって、いわゆる『干し草の山から１本の針を見つける』ことが可能になる」と語る。

プログラムの中には、北朝鮮を対象とした試験的なものも含まれていると、ＡＩ開発プログラムに詳しい関係者は語る。北朝鮮がトンネルや森林、洞窟に隠蔽が可能な移動式ミサイルを開発している点に、米国政府は懸念を深めている。北朝鮮を対象としたプロジェクトの存在も、これまでのところ報道されていない。

プロジェクトは機密扱いだが、米軍のＡＩに対する関心は明白だ。例えば国防総省は、「プロジェクト・メイブン」と銘打って昨年大々的に宣伝された取組みの一環として、ドローンを利用して集めた映像から対象を特定するため、ＡＩを活用していることを明らかにしている。

それでも、一部の米国当局者は、軍のプログラムにおけるＡＩ関連予算は、全体としてひどく不十分なままだと不満を漏らしている。

＜ＡＩ軍拡競争の懸念＞

スライドショー ( 4枚の画像 )

国防総省は、軍事システムにおけるＡＩ導入の推進という点で、中国やロシアと競争状態にある。その目的は、特定任務を果たすために自ら学習する能力を持つ、より高度な自律的システムを生み出すことだ。

ミサイルによる潜在的な脅威を特定し、移動式発射装置を追尾するためにＡＩを活用するという同省の研究は開始されたばかりであり、総合的な取組みの一部でしかない。

ＡＩによるミサイル対策研究について詳細はほとんど知られていないが、移動式ミサイル発射装置の追尾システムについては、すでに米軍内でプロトタイプの試験が始まっていると、ある米国当局者はロイターに語った。

このプロジェクトには、首都ワシントンの軍民双方から研究者が参加。米情報機関系のベンチャーキャピタル「In-Q-Tel」が出資した民間企業が開発を手掛けた先進的技術が軸になっているという。

研究の推進に向けて、同プロジェクトでは情報機関系の商用クラウドサービスに接続し、悪天候下や森林内でも観測できる高度なレーダーなどから得たデータのパターンや異常を探している。

ロイターが閲覧した予算関連文書では、移動式ミサイル発射装置追尾プログラムの範囲を「４＋１問題の残る部分」にまで広げる計画に言及している。「４＋１」とは国防総省の用語で、中国、ロシア、イラン、北朝鮮の４カ国に加えてテロリストグループを指す。

ミサイル対策におけるＡＩ利用の賛成派も、反対派と同様、大きなリスクが伴うことに異論はない。

ＡＩを使うことで、核戦争危機における意志決定を加速する可能性がある。コンピューターに由来する判断ミスが起きる可能性が高まり、さらに、ロシアや中国とのあいだでＡＩ軍拡競争が始まることで、グローバルな核の均衡が崩れかねない。

＜ＡＩが騙されるリスクも＞

米核戦略の最高司令官ジョン・ハイテン空軍大将は、ＡＩ主導システムが本格稼働する場合、国防総省が「エスカレーション・ラダー」と呼ぶ、核に関する意思決定ペースを、機械ではなく人間がコントロールする安全装置を設ける必要に迫られるだろうと語る。

「安全装置を設けなければ、（ＡＩによって）エスカレーション・ラダーに乗せられてしまう」とハイテン戦略軍司令官はロイターとのインタビューで語った。「それに乗ってしまえば、すべてが動き出す」

公共政策研究シンクタンクのランド・コーポレーションなどに所属する複数の専門家は、中国やロシアなどの国がミサイルを特定されないよう隠蔽する方法を身につけ、ＡＩによるミサイル探知・追尾システムを騙そうとする可能性は高い、と指摘する。

こうした騙しが成功する可能性を示す証拠はいくつか存在する。

米マサチューセッツ工科大学の学生による実験では、コンピューターで対象を識別するグーグルの先端的な画像分類システムを騙すことがいかに簡単か証明した。この実験では、プラスチック製のカメの玩具をライフル銃だとシステムに誤判定させることに成功している。

後のインターネットにつながるプロジェクトの出資者であり、ＡＩにおける先駆的存在でもあるスティーブン・ウォーカー国防高等研究計画局（ＤＡＲＰＡ）局長は、ＡＩが出した結論について、国防総省では人間による検証を依然必要としていると語る。

「システムが騙されてしまう可能性があるからだ」とウォーカー局長はロイターに語った。

ＤＡＲＰＡでは、ＡＩシステムが人間のアナリストに対して上手に説明できる能力を得るためのプロジェクトに取り組んでいる。それは国家安全保障に関わる重大なプログラムにおいては、優れた説明能力が必要不可欠であると考えているからだ。

＜「間違いは許されない」＞

ＡＩの性能向上に取り組んでいる研究者の１人が、米国家地球空間情報局（ＮＧＡ）で自動化やＡＩなどを担当するディレクターのウィリアム・「バズ」・ロバーツ氏だ。

ミサイル追跡で重要となる衛星画像分析の支援に向けた、政府によるＡＩ開発の最前線にロバーツ氏は立っている。

ＮＧＡは昨年、ＡＩを使って１２００万点の画像をスキャンして分析したと発表。ロバーツ氏は、個別プログラムについては語らなかったが、ＡＩを使って関心対象が存在するかを判断するという点で、同局の研究は進捗をみせていると語った。

国家安全保障上の潜在的な脅威を評価しようという努力の中で、ＮＧＡの研究者は、民間研究者とは異なるプレッシャーを受けている。

「われわれには間違いは許されない。ＡＩ、機械学習、コンピューターによる視覚認識などの点で、商業的には数多くの進捗が見られる。ただ民間では半分正解なら、それでいいのだ」とロバーツ氏は言う。

ＡＩによるミサイル対策プログラムの要素が２０２０年代初頭には実用に耐えるものになると考える関係者もいるが、米国政府や議会からは、研究の取組みがまだまだ限定的だと懸念する声も聞こえてくる。

「ロシアと中国は確実に、この種の研究を進めている」と語るのは下院軍事委員会のマック・ソーンベリー委員長だ。「恐らく、いくつかの面では、われわれよりも多くの努力を注いでいるだろう」

（翻訳：エァクレーレン）