AIが考えてアニメ化すれば、動作を予めプログラムせずに済みます。

テレビゲーム内でプレイヤーが複雑なデジタル世界を自由に探索できるようになるにつれ、CGキャラクターが自然に動き、そこにあるすべてのものと相互作用することはますます難しくなっています。

特にあらかじめプログラムされた動きと動きの間の不自然さが問題でした。そこでこのぎこちなさを防ぐため、研究者たちはAIとディープ・ラーニングを利用して、本物の人間とほぼ同じようにリアルにゲームキャラクターを動かせるようにしました。

従来は人間の動きをキャプチャーしていたが…

キャラクターたちに歩く、走る、ジャンプ、などといった動作を可能な限りリアルに表現するため、ゲーム開発者は本物の人間の動きをキャプチャーしてデジタルのキャラクターに反映することが多いです。

しかし研究者らいわく、これはキャラクターを手作業でアニメーションさせるよりも早いし見栄えもいいのですが、キャラクターがデジタル世界とどのように相互作用するかをすべて計画してモーションを撮影することは不可能なのだそうです。

ゲーム開発者は出来る限り多くの可能性を計画しようとしますが、最終的にはソフトウェアに頼ることになります。キャラクターが椅子に向かって歩くモーション、そこに座るモーションの間を埋めなくてはいけないんです。そして多くの場合、そうした連続の動きが大袈裟で、不自然に感じられるようになるため、プレイヤーのゲーム体験が損なわれることに繋がってしまいます。

人工知能が解決してくれる

ということで、エディンバラ大学とAdobeリサーチのコンピューター科学者たちが、新しい解決方法を考え出しました。

これは来月オーストラリアのブリスベンで開催される、｢ACM SIGGRAPHカンファレンス｣で発表されます。これまであったたくさんの突破方法と同様に、ディープ・ラーニングによるニューラル・ネットワークの能力を活用し、現在のテレビゲームが抱えているアニメーションのぎこちなさを解決する、というものです。

ディープフェイクの作り方に似ている

例えばディープフェイク映像を作るためには、ニューラル・ネットワークはまず、対象者の顔をいろんな角度から撮影し、数万枚もの顔写真のデータベースを使って、想像できるあらゆる表情を学習することで訓練されます。このプロセスには時間がかかりますが、これを使えばあり得ないほど現実的に見える顔の入れ替えが自動生成されるようになります。

この研究では同様のアプローチが取られていますが、顔のデータベース上でニューラル・ネットワークを訓練する代わりに、サウンドステージ上にいる生の役者からキャプチャーしたデジタル化された一連のモーションを学習に使います。最良の結果を得るには、システムに解析させるため役者が物を拾い上げたり、どこかをよじ登ったり、椅子にドスンと座ったりするといった動作の、膨大なデータベースが必要となります。

リアルタイムで自然に動きを繋げられる

この作業を一度やってしまえばニューラル・ネットワークは自然な見た目の結果や動きを生成しながら、学習したことをほぼすべての状況や環境に適応させることが出来る、と話しています。

これによりキャラクターが椅子に向かって歩き、減速し、身体を回転させ、そして座る動作の合間が埋まることとなり、そうした動きとアニメーションをインテリジェントにリンクして継ぎ目を隠すのです。

モーションキャプチャで行なっていたことをこの技術で補うことができるようにナルト、ファイルサイズや処理、および共有する必要があるデータ量を減らすのに役立つなど、また違った利点があります。配信型ゲームがますます普及していけば、それはさらに意味のあるものになるでしょうね。

この手法はまた、ゲームのキャラクターのより複雑な相互作用への道を開きます。ゲームの中でリアルタイムに3人以上のキャラクターが自然なモーションで戦う姿を見たことがありますか？事前にアニメーションされたシーンを除くと、1度もないのです。もし次回作の『レッド・デッド・リデンプション』でこの手法が採用されれば、ついに酒場での本物の乱闘が見られることになるかもしれません。