作る前にコントロールの仕組みが必要、でもコントロールできるのか？

先日国連の会議で、人工知能などの未来のテクノロジーが生み出す脅威について問題提起されました。その会議はジョージアの国連代表部と国連地域間犯罪司法研究所（UNICRI）が主催したもので、新たなテクノロジーによって生じるリスクについての議論が目的でした。議論の対象には化学・生物・放射性物質・核（CBRN）兵器なども含まれています。

その会議では、人間をはるかに越えるような能力を持つスーパー人工知能に関して集中検討の場が設けられました。下の動画にその記録がありますが、特に必見なのは、マサチューセッツ工科大学（MIT）の物理学者マックス・テグマーク氏と、オックスフォード大学のFuture of Humanity Instituteのディレクターで哲学者、ニック・ボストロム氏のプレゼンです。ボストロム氏は『Superintelligence: Paths, Dangers, Strategies（超知能：道筋、危険、戦略）』の著者でもあります。

テグマーク氏は1：55：40あたりから、ボストロム氏は2：14：50あたりから。

彼らは人工知能の良い意味での可能性も十分認めつつ、テクノロジーがコントロール不能になれば脅威となりうるという問題も提起しています。テグマーク氏は2014年にも、物理学者のスティーブン・ホーキング氏やフランク・ウィルチェック氏、スチュワート・ラッセル氏らとともに、人工知能に関する一般の理解が足りないとして警告しています。

｢そのようなテクノロジーは、金融市場の裏を書いたり、人間の研究者より優れた発明をしたり、人間の指導者を越えて人心を操作したり、理解できないような武器を作ったりするかもしれない｣とテグマーク氏らは書いています。｢人工知能の短期的な影響は誰がコントロールするかに依存するものの、長期的な影響は、そもそもコントロール可能なのかどうかという問題になる。｣

ニック・ボストロム氏。 (Credit: UN Web TV)

またボストロム氏も、スーパー人工知能は独自の技術的・根本的な難題を提起していて、特に｢コントロール問題｣が最重要だと言っています。

｢人工知能システムが非常にパワフルになるという、もっともらしいシナリオがあります｣と彼は言います。｢そしてコントロール問題に関しても、一見もっともらしい解決方法があります。そのアイデアはパッと思い浮かぶのですが、よくよく見ると、うまくいかないことがわかります。つまり今のところ、より良いコントロールの仕組みをどう作るかという問題は未解決のままなのです｣

そしてボストロム氏は、今後その解決の難しさがはっきりするだろうといいます。というのは我々は、スーパー人工知能を使ったシステムを作る前に、それをコントロールする仕組みを用意する必要があるからです。

ボストロム氏は、コントロール問題に関する根本的・技術的な課題解決を進める新たな研究分野の創設、その分野に対する数学やコンピューターサイエンスのトップ研究者の参画を呼びかけています。

彼はまた、人工知能を開発する研究者と、その安全性を考える研究者の協力の必要性も訴えました。さらに全関係者に対し、長期間のAIプロジェクトには公益の原則を埋め込むべきだと主張しました。人工知能はユニークなテクノロジーであり、個人とか私的企業のためではなく人間の公益のために開発されるべきだと。

ボストロム氏は、人工知能によって人類が絶滅したり、または生き延びたとしても壊滅的な状態になってしまったりする可能性もあると示唆しています。今後100年間で人間が何をするかは、人間の未来にとって自然災害よりはるかに大きな脅威だとボストロム氏は言います。

｢本当に大きなリスクは、人為的なカテゴリにすべてあります｣とボストロム氏。｢人間は地震や疫病、隕石の衝突などがあっても生き延びてきました。が、我々は今世紀、まったく新しい現象と要素を世界にもたらします。ありうる脅威のほとんどは、今後予想される未来のテクノロジーと関連するでしょう｣

この会議で言われたようなスーパー人工知能を実際目にするまでには、何十年もかかるかもしれません。でも絶滅の危機まで考えられるとすれば、そのための準備は早く始めた方が良さそうです。

George Dvorsky-Gizmodo US［原文］

（miho）