＜人工知能（AI）が人類の敵になることへの懸念を表明する著名人が増えている。こうした懸念に応え、グーグルは、AIが人類に反逆しそうな場合に人為的な操作で回避する「非常ボタン」のような仕組みを開発中だと発表した＞

数年前から、人工知能（AI）が人類の敵になることへの懸念を表明する著名人が増えている。理論物理学者のスティーブン・ホーキング博士は、自律型兵器を禁止するよう公開書簡で訴えたが、スウェーデンの哲学者ニック・ボストロム氏は著書「Superintelligence」の中で、AIが知性の点で人類を超えるとき、人類は絶滅の脅威にさらされる可能性があると論じた。

【参考記事】「スーパー人工知能」の出現に備えよ－オックスフォード大学ボストロム教授

電気自動車のテスラ・モーターズやロケット開発のスペースXで知られる起業家イーロン・マスク氏も、ボストロム氏の著書に言及して「AIは核よりも危険になる可能性がある」とツイートした。

Worth reading Superintelligence by Bostrom. We need to be super careful with AI. Potentially more dangerous than nukes. — Elon Musk (@elonmusk) 2014年8月3日

こうした懸念に応え、グーグルのAI部門が今月、AIが人類に反逆しそうな場合に人為的な操作で回避する「非常ボタン」のような仕組みを開発中だと発表。米ニューズウィークなどが報じている。

AIが「人類の敵」になるのを防ぐアルゴリズム

グーグルから2014年に買収されたディープマインド社が公開したのは、「Safely Interruptible Agents」（安全に中断できるエージェント）と題した論文。この中で同社は、自律学習型のエージェント（AI）が有害な振る舞いをしそうになったとき、人間のオペレーターが「big red button」（非常ボタン）を押すことで、有害な挙動が継続されるのを阻止して、安全な状態に導く仕組みを開発中だと述べている。

論文はさらに、将来的にAIが非常ボタンを無効化する方法を学習しないよう、手動による中断操作を偽装して、AIが自らの判断で挙動を変更したように「思い込ませる」仕組みについても説明している。

同チームが定義する「安全な中断」のポリシーに基づき、既存のAIエージェントを調べたところ、「Q-learning」などはすでに安全な中断が可能な状態で、「Sarsa」などは容易にポリシーを追加できることがわかったという。

AIが人類に反逆する未来は、『2001年宇宙の旅』や『ターミネーター』、最近では『アベンジャーズ エイジ・オブ・ウルトロン』など多くのSF映画で描かれてきた。こうしたモチーフが繰り返されるのは、科学技術の進歩が文明の発展を担ってきた一方で、ハイテクが雇用を奪い、核兵器などの大量破壊兵器が人類を脅かしている現実の懸念も反映してのことだろう。



それに加え、創造主が創造した「もの」に反逆されるという、ギリシャ神話以来の普遍的なテーマである「父殺し」の変形と考えるなら、SF作品での言及は19世紀初頭のメアリー・シェリーによる小説『フランケンシュタイン』にまでさかのぼることができる。6月11日に日本公開となるSFスリラー映画『エクス・マキナ』にも、そうした要素が洗練された形で継承されている。

【参考記事】アンドロイド美女に深い不安を託して

