人類がどのように終焉を迎えるかは、SF映画や小説では尽きないテーマだ。テクノロジー情報誌「Wired」は、CSER（The Cambridge Centre for the Study of Existential Risk：ケンブリッジ絶滅リスク研究センター)の「実存し得るリスク研究」によりまとめられた「地球壊滅の脅威リスト10」を発表した。



1. 人工知能／時期：2075年／対策優先度：非常に高い

人工知能（Artificial Intelligence）が自らを進化、発達させるという段階に達したとき、彼らと人類の目標が一致するかどうかは予測不可能だ。CSER外部アドバイザーのニック・ボストロム博士は、2075年までに人工知能は人間の知能の90％のレベルに到達すると予測している。そして人工知能が我々の理解を超えて発達することは、核兵器の開発と同様の脅威であるという。

世界的に有名な物理学者スティーヴン・ホーキング博士は言わずもがなスペースXの創業者のイーロン・マスク氏も人工知能への懸念を表明している一人である。ホーキング博士は2016年に、「人工知能の進歩は必ずしも無害ではない」と発言している。CSER は人工知能が近い将来、人間の存在を脅かすリスクを数多く生み出すと考えており、この脅威の可能性はかなり高いと評価した。

2. バイオハッキング／時期：現在／対策優先度：非常に高い

バイオハッキング（Bio-hacking）とは合成生物学で、DNAを操作して合成作物や合成生物を作る技術だ。この技術利用によって牛なしでの人工牛乳の生産や、遺伝子操作によるガン治療などが可能になる。研究者たちは遺伝子レベルで既存の微生物を作り変える実験を続けているのだが、CSERはそれらの実験は非常に危険だと考えている。一例としてバイオエンジニアリングの実験で人為的に作られたウイルスが実験室から漏れ出た場合、世界中にパンデミック（大感染）が起きる可能性は大きい。ジカウイルスの大流行は225万人以上に影響したが、今後新たなパンデミックが起きる可能性は非常に高いと警告している。

