ロボット兵器の普及が軍拡競争、テロを誘発

“車いすの天才物理学者”として知られるスティーヴン・ホーキング博士が3月14日に亡くなった。博士は晩年、「人類に残された時間はあと100年」と、多くの“警告”を繰り返し発していた。そのメッセージの意味とは？AI（人工知能）を活用した全自動の「自律型兵器」、つまりロボット兵器の開発は、早ければ数年内にも実現するとみられている。これらのロボット兵器は、人類を滅ぼしかねない脅威となる――と、ホーキング博士は訴えてきた。 ’15年7月、国際人工知能会議で発表された公開書簡に、ら、学者やIT企業関係者など約1000人が署名。ロボット兵器が「火薬・核兵器に続く、第3の革命的な兵器」であるとして、その規制を求めた。さらに、ロボット兵器の研究開発が軍拡競争を招くことや、テロ組織や独裁政権に拡散していく恐れについても指摘した。 また’18年4月には、、ＡＩを軍事利用する米国防総省のプロジェクトから撤退してほしいという誓願書を、CEOのピチャイ氏に渡したと報じられた（ニューヨークタイムズ電子版、4月5日）。彼らが反対している「プロジェクト・メイブン」で、グーグルのAI技術や画像認識技術が、ドローン兵器に使われる可能性があるという。 「ホーキング博士らの懸念は、もはやSF小説の話ではなく、国際的な政治課題となっています」と語るのは「武器輸出反対ネットワーク」代表の杉原浩司氏。 「’17年11月、国連で初めてロボット兵器に関する専門家会議が開かれ、『特定通常兵器使用禁止制限条約』の枠組みで、その規制が今後も論議されることに合意した。完全自律型のロボット兵器はまだ実戦に投入されてはいませんが、米空軍がF16戦闘機を完全自律型の無人機に改造し、有人のF35戦闘機のサポート役にするとしているなど、実際にロボット兵器が使われる恐れが高まっています」 ロボット兵器には、具体的にどのような問題があるのだろうか。杉原氏は「まず、軍事攻撃のハードルが下がります」と語る。