NVIDIAは3日(米国時間)、カナダ・モントリオールで開催中の「NeurIPS 2018 (Neural Information Processing Systems Conference)」にて、AIを使い、完全に人工的かつインタラクティブな3D環境を、リアルタイムでレンダリングする研究について発表を行なった。

現在、仮想世界のあらゆるオブジェクトは、人の手によって個々にモデルを生成する必要があるが、この研究では、現実のビデオをもとにニューラルネットワークにオブジェクトを学習させることで、建物や樹木、車両などのオブジェクトを自動でレンダリングすることに成功した。

同社では、この技術によってゲーミングや自動車、建築、ロボティクス、VRのための仮想世界を即座に構築できる可能性が生まれ、現実世界の場所をもとにしたインタラクティブなシーンを生成したり、お気に入りのポップスターのダンスを自分がそっくりそのまま踊っているようなシーンを見せることもできるとしている。

NVIDIAのディープラーニング応用研究担当バイスプレジデントのBryan Catanzaro氏は、「NVIDIAにとって、インタラクティブなグラフィックスの生成にニューラルネットワークを使った手法は、初めて実現したものである」と述べ、生成モデルはグラフィックスの創出に変化をもたらし、開発者は従来の何分の1というコストで新しいシーンを作れるようになると語った。

研究成果の1つとしてNeurIPSで公開されたのがドライブゲームで、同ゲームでは都会のシーンを走行することができる。ゲーム内のあらゆるコンテンツは、従来のグラフィックスエンジンで生成された3Dワールドのスケッチを動画に変換するニューラルネットワークによって、インタラクティブにレンダリングされている。

この生成ニューラルネットワークは、照明や素材、ダイナミクスといった世界の外観をモデル化することを学習しており、シーンがすべて人工的に生成されるため、オブジェクトの削除や修正、または追加といった編集も簡単に行なえるという。

論文では「視覚世界のダイナミクスをモデル化および再創造する能力は、知的エージェントの構築に不可欠であり、純粋に科学的な関心を別にしても、継続的な視覚経験を人工的に作成するための学習は、コンピュータービジョンやロボティクス、コンピューターグラフィックスといった分野で多様な用途を持つ」としている。