[2019/09/18 22:45]

バンダイナムコスタジオ サウンド＆モーション部サウンド3課課長 渡辺 量氏

バンダイナムコスタジオ サウンド＆モーション部部長 中西哲一氏

2019年9月4日，神奈川県・パシフィコ横浜で開催された「CEDEC 2019」では，バンダイナムコスタジオによる「エースコンバット7 スカイズ・アンノウン」（以下，AC7）の制作に関連したいくつかのセッションが行われた。ここでは，そのうちのサウンド制作に関する講演をレポートしたい。この講演では同社の空戦アクション最新作AC7における空間や演出に対して行ったサウンド実装や，得られた知見の紹介が行われていた。講演を行ったのはバンダイナムコスタジオ サウンド＆モーション部部長のと同部サウンド3課課長のの両名だ。解説の前半を渡辺氏，後半を中西氏が担当しており，AC7において，渡辺氏は「サウンドディレクション，実装，作曲，SFX」を，中西氏はテクニカルサウンドディレクターを務めている。ACシリーズはバンダイナムコで長い歴史を持つシリーズだが，最新作となるAC7では「空の革新」がテーマになっているという。ゲーム内の雲や天候，気流などの表現が強化されており，これが非常に大きい進化だそうだ。また，12年ぶりのナンバリングということで，「シリーズのお客様が安心して楽しめるように」するというところもプロジェクトの方針の一つだとのこと。渡辺氏は「お客様とのこれまでのお約束やご期待いただいいている部分を守りつつ，変えるところは変えていく」スタンスで臨んだと語っていた。また，シリーズ初となったVRモードでのサウンド演出も新たな試みだそうだ。次にサウンドスペックの紹介が行われた。Unreal EngineとWwiseのコンビネーションは定番だが，目を引くのは常駐サウンドメモリ155MBと5時間以上のBGMではなかろうか。BGMはインタラクティブに組まれているそうで，「サントラは6枚組とかになりそう（渡辺氏）」なボリュームだという。効果音のセットは基本的にWwiseで圧縮がかけられているが，プレイヤーが何千回と聴くような，爆発音とかフライパスのサウンドは圧縮をかけずに，非圧縮のStraight-PCMが用られている。「音の立ち上がりが最高（渡辺氏）」なのだそうだ。常駐サウンドメモリサイズといい，一部Straight-PCMを使えるようになったことといい，PlayStaion 4でも随分「リッチな」サウンド環境が得られることが分かる。サウンド関係者のリストも表示されたのだが「今回は純粋にサウンドに関係するスタッフだけでも150名以上（渡辺氏）」が関わっているそうだ。改めて同シリーズが超大型タイトルであることが実感できる。まず渡辺氏から「音楽をゲーム中でどう取り扱ったか」が解説された。話はVRモードから始まったのだが，氏はいきなり「VRゲームにおいて音楽は必須ではない」と断言していた。AC7のVRモード開発初期は，リアルな没入感を得るために，音付けをシミュレータ寄り，リアル寄りに振り切っていた時期もあり，「そのときは楽曲をつけていなかった（渡辺氏）」のだそうだ。多くのVRタイトルでこのようなアプローチをとっているが，これも「音楽は，ときに没入感を阻害することもある（渡辺氏）」ためだという。本作ではシーンごとに目的をよく考えて曲の使い方を決めていったと氏は語る。「VRモードの空襲シーンや発進シーンではあえて音楽を使わないことで，その場にいるという体験や，迫り来る危機感というのを演出している。こうしたシーンに緊迫感のある音楽を当てていくと，予定調和なニュアンスが強まってしまうことが分かったため，音楽なしの，効果音で押していくことを選択した（渡辺氏）」ということで，トライしてみた結果「ノーミュージック」になったようだ。VRは基本的に一人称であり，プレイヤーがその世界に存在している状態を再現している。その仮想世界の中の登場人物たちが聴ける音のことを「diegetic sound」と呼ぶそうで，ゲーム世界の中に存在するラジオだったり，テレビだったり，スピーカーだったりから再生される音楽はdiegenicと言える。逆に仮想世界の中では鳴りえない，「ネタ的に再生される音」を「non-diegetic soundと呼ぶのだそうだ。「VRゲーム以前のゲームで再生されているBGMはほとんどがnon-diegetic sound（渡辺氏）」にカテゴライズされる。これらをどのように使い分けているかが続けて紹介された。最初の例は「diegenicに音楽を使ったシーン」で，「エアショーモード」という航空機が曲芸的な軌道を眺めるお祭りイベントが取り上げられた。お祭りイベントなので，観客に向けられたBGMが航空ショーのように流れていてもおかしくない状況だ。「そこで空母の放送スピーカーからガンガンロックが流れている状況を再現した（渡辺氏）」とのことで，その動画も再生された。甲板に響く音楽を再現しているのだが，このスピーカーシミュレーションはプリプロセスではなく，Wwiseに標準搭載されているコンプレッサーやEQ，ディレイ，リバーブを使ってリアルタイムプロセスで行っているという。プリプロセスではないのは，プレイヤーが仮想世界の中でどこにいるかによって音質がリアルタイムに変わるので，「決め撃ち」できないからであろう。さらにnon-diegetic soundについて語られた。没入が目的ではないメニュー画面などシステム的なシーンでは，先のリアルタイムプロセスは用いず，ヘッドフォンに直接BGMを出力している。こういうゲーム中の演出として盛り上げたいときに使うBGMは，non-diegeticだ。「VRモードでは，徹底的にdiegetic，実在感のあるリアルなところを貫くために，今では笑い話だが，コックピットのスピーカーからBGMを再生するという案が，本気で検討されていた時期もあった（渡辺氏）」とのことだ。VRタイトルはリアルとエンタテインメントの境が曖昧なため，このような議論も必要なのだろう。「本作では最終的にBGMを抜くと，シナリオの演出が弱くなってしまい『これじゃエースコンバットではなく，フライトシミュレータだよね』という意見も多くなって，楽曲の力を借りる選択をした（渡辺氏）」そうだ。なお，リアリティ追求派はBGMをオフにすることも可能だ。本作におけるnon-diegeticな音楽はインタラクティブに変化させているシーンがあり，Vertical（垂直方向）とHorizontal（水平方向）への変化を行っているという。メニューモードでは，階層によってじわじわと曲調が変わっていくVerticalな縦方向のインタラクティブ音楽を使用しているそうだ。いわゆる「ステム」と言われるもので，1曲が時間軸ではなく，楽器パートごとに分割されていて，必要に応じて複数のパートを組み合わせたり，あるパートをミュートしたりすることで，曲の雰囲気を揃えながら変化を出す技法だ。メニューシーンは奥行きのあるUIデザインが採用されているため，プレイヤーが今どこの階層にいるのかを，音楽でも知らせる目的で，非常にシンプルな構成で曲調を変化させている。また，キャンペーンモードの曲では，プレイヤーのプレイ時間に左右されずに，重要な演出シーンで最高のテーマフレーズが流れるように，Horizontalな，水平展開をもたらす音楽が使われているそうだ。「Horizontal Resequencing」の目的は「盛り上げのタイミング一点に絞っている（渡辺氏）」とのことで，プレイ時間によって盛り上がってほしいタイミングが大きくずれてしまわないように，曲を移行できるタイミングや，ループして留まる踊り場をたくさん楽曲に仕込んでいる。「本作では演出家が判断する『ここぞ』というタイミングで，楽曲のいわゆる『サビ』につながるような使い方をしていて，旧作と比較して演出の幅が広がった（渡辺氏）」という。しかしながら，これは非常に手間がかかるため，この演出方法の効果を理解した企画担当の後々のリクエストに応えるのが大変だったそうだ。さらにインタラクティブミュージックの別手法が解説された。エースコンバットでは「雲」の存在にとても力を入れている。一方でゲームではコクピットの閉塞感に加えて雲の中という，視界を奪われてしまうような本当に孤独な状況に入るときがある。こういう場面ではBGMを籠もらせるということを行っている。最初はプロジェクトチームから拒否されていたそうだが，最終的に孤独感の強調や雲から抜けたときの開放感に大きく貢献できるという意見が増えて，採用となったという。続いて各種効果音の実装について解説がなされた。フライトシューティングでは欠かせない，迫力あるすれ違い音の出し方が取り上げられた。すれ違い音とは「ドップラー効果のついたワンショット音」で，「すれ違いのピークが遅れてやってくるので，一番おいしいところがプレイヤーに分かるように，実は予測して鳴らしている。しかし予測が外れることもあるので，補正も入れている。かなり細かく鳴らし分けしているので，バリエーション含め非常に豊富なセットが用意されている（渡辺氏）」という。実は，この仕組みは中西氏が20年以上前，PS1の時代に特許を取得していたもので，エースコンバット3くらいからずっと採用され続けているそうだ。20年経って特許が切れているので，今では誰でも使えるとのこと。実際には4方向の入射エリアごとに，4つの距離で判定を入れていて，各エリアに入ってきたオブジェクトの相対速度から予測したすれ違い音を鳴らしているのだという。それから「みんな大好き，ベースノイズ（渡辺氏）」の紹介が行われた。渡辺氏は，本作のリアルなグラフィックスに感銘を受け，こっそり環境音にこだわっていたと語る。「ほとんど中西さんのエンジン音で聞こえないが，あるとないとでは大違い（渡辺氏）」なのだとか。環境音は映画などでもそうだが，あってもなかなかその存在が意識されることはないが，ないと「クリーンすぎて」不自然に感じるという，リアル系の演出には欠かせない要素の一つである。ここにこだわることでリアリティは間違いなく向上したはずだ。本作では環境音の一つとして，戦闘機の挙動や軌道などによって，さまざまな大気の音が変化するように作っているとのだという。最大10種類くらいが再生されているそうで，「あらゆるインタラクションやコントロール，プレイヤー操作，状況に対して，ささやかだがサウンドで動きをつけることで，操作感が増すと信じてやった（渡辺氏）」とのことだ。実際にマニューバー操作の動画が紹介され，会場でも微妙な環境音の効果が披露されていた。続いて爆発音の距離遅延についての解説が行われた。現実では，音の伝播はあまり速くない。最初は現実世界の値である音速340m/sを入れてみたところ，混戦の中だと，自分が撃墜した機体の音がどれか分からない，撃墜した爽快感がまったく得られないという結果になったとのことだ。「エースコンバットはフライトシミュレータではなく，フライトシューティングゲームであることがコンセプトなので，爽快感が得られつつも，空間の広さが感じられるところに落ち着かせた（渡辺氏）」。ここで，爆発音にリアルな遅延時間が発生している動画と，調整した動画が紹介された。確かにリアル版だと「遅すぎる」印象で，ゲームの中の時間軸とリアルな時間軸は違うということを改めて実感できた。「戦闘機の速度は最大マッハ3.2くらいなんですが，そうなると相対速度マッハ6.4とかいう意味が分からない世界になって，マッハを超えたらそもそもドップラー効果も何もない。期待どおり動作するかも分からない。みんなが期待する音は，そういう現実の音ではないと思い，かなりリミッターを履かせてます（中西氏）」。次にミキシングの工夫が紹介された。ゲームにおいて音声（人間の声）は非常に重要だが，爆発音など迫力ある大きな音に埋もれがちだ。昨今のコンテンツはラウドネス基準のお陰で，ダイナミックレンジは広くなり，調整はしやすくなっている。「それでも余裕がないときは，今までは主役以外の音をコンプレッションするというアプローチを取っていたが，最近では埋もれそうになったら持ち上げてしまえ，というアプローチも使えるのではないかと考えて，AC7で実装した。従来は爆発が鳴っている最中に大事な台詞音声が鳴ったら爆発音をダッキングしていたのだが，中西さんと相談の結果，音声を上げることになった。なのでAC7では近距離で大きな爆発音が鳴ったりすると，無線音声が持ち上がるという実装をしている（渡辺氏）」。これは常に有効な手段とは限らない点には注意が必要で，実際，無線音声には違和感が少なく有効だったが，それ以外では違和感を覚えることもあるそうだ。ラウドネス基準によってヘッドルームに余裕が生まれたお陰で可能になったテクニックと言えるだろう。さらに戦闘機のエンジンの燃焼音について。これには指向性が設定されているそうで，後方からだと燃焼音がより聞こえやすくなっているそうだ。「ゲームの仕様上，戦闘機の後ろにまっすぐ回り込んで，ロックオンするのが正解なのだが，この実装で結果的にプレイヤーが現在いい位置にいることを知らせるようなサウンド演出にできたと考えている（渡辺氏）」とのことだ。この機能はWwiseのビルトインパラメータのエミッターで角度を拾って簡単に設定できるそうだ。それから強風について。本作では機体が流されてしまうくらいの強風が吹くときがあるそうで，そのときは風向きが分かるよう，サラウンドで風上を中心に強風吹き込んでくるように調整しているそうだ。また，AC7は，シリーズで初めてバージョン管理ソフトとWwiseを導入して，実装をワークシェアするという試みを行ったのだそうだ。楽曲，音声，効果の3カテゴリーに実務化して進めていくことができたという。本作で紹介されているサウンド仕様は，そのほとんどが「バーティカルスライス」と呼ばれる期間に検証することができたため，量産に入ったあとはスムーズに実装を進めることができたと渡辺氏は語っている。ここからは中西氏にバトンタッチして，大手ならではの強みであるプラグイン開発と導入について語られた。バンダイナムコスタジオでは，オリジナルの独自プラグインも多く開発しており，Wwise標準のプラグインといろいろ使い分けているという。まずはプラグイン開発について。スタッフロールでもクレジットされている効果音シンセサイザプラグインソフトウェアベンダーであるBoom Libraryの協力を仰いでいる。同社の「Turbine」は既発製品だが，リリース前からコンタクトしていて，Turbineのプリセット作成にも関わっていたのだそうだ。中西氏曰く，「効果音の録音は何度もやっているが，やはり出力を調整して『もっとこうしてほしい』といったオーダーに簡単に応えられるものではないので，実際に収録した素材とシンセサイズで作った音のハイブリッドで使用していくのが現実的」だと考えているとのこと。Turbineはいろんな音が表現できたので非常によかったと氏は語っていた。Boom Libraryとは，このTurbineの関係だけではなく，インゲームのカットシーンのMAを発注したり，ゲーム中の効果音を一部発注したりなどもしているという。Turbineはエンジン音に特化していて，その音しか出ないので，ゲーム中に単体で使われることはなく，これに収録した素材を加えて作られているそうだ。「具体的にはWwiseの中でさまざまなレイヤーを組み合わせて，1機分がだいたい8つのレイヤーでできている。そしてフェーダートラックでクロスフェードをかけたり，PCMを使って，エンジン出力に連動する音を作り上げている（中西氏）」とのことだ。続いてエースコンバットには欠かせない，飛び交う無線音について。無線処理についてはインハウスでプラグインを開発したそうだ。リアルタイム処理で実装されているので，たとえば，途中でより無線音が汚くなるといった表現もできる。「相手側の無線の背景にある音もリアルタイムにミックスしているので，今まで固定でミックスしていた作業をやらず済んだ。また，素材の圧縮に大きく貢献してくれたのがよかった（中西氏）」開発された無線加工プラグインソフトウェアはVST版とWwise版があり，両方ともインハウス開発だったそうだ。まずVST版を開発し，試用して使えそうな感触があったので，Wwise版も作ってもらったという。先にVSTでエフェクトの作り込みを行い，プリセットを用意して，それをWwise側に持っていくというプロセスで実装したとのこと。エフェクトの中身はシンプルで，音量をブーストするアンプ部分，そのあとでノイズ成分を管理するノイズジェネレータ，それらをミックスしたものがEQ（イコライザ）に入って，EQ内でかなり大胆な編集が行えるので，ここで汚して，最終段でローパスフィルタやポストゲインで音を落ち着かせる，そんなプロセスで音色作りを行ったそうだ。Wwise内では，VSTプラグイン版で用意されたパラメータを制御することはなく，プリセットの切替で音色を変化させているとのことだ。これだけのパラメータをWwiseで制御するのは大変だからという理由だ。とはいえ，プリセットの中身を修正したくなると，VSTプラグインまで一度戻らなければならず，それが頻発するのはデメリットなので，最初の作り込みがどれだけ行えているかが重要だったと中西氏は語る。RTPC（Real-time Parameter Control）があまり複雑になるのもよくないので，結果的にはこの実装方法で正解だったようだ。これ以外のエフェクトの微調整はRTPCで制御しているとのことだ。次にミュージックプレイヤーについて。映像と連動しているところを紹介していた。BGMから取得したスペクトラム情報をもとに，背景がこれと同期して動く仕組みだ。「これはサウンドチームからの提案で実現した仕様で，音楽を聴くだけ，という最低限の仕様はあるが，より心地よく聴いてもらうためにこういうこともできるよと提案し，プログラマを巻き込んで実装した（中西氏）」そうだ。ここで実際に使用したインハウス開発のスペクトラム解析プラグインの紹介がされた。パラメータも何もない。WwiseのSDKとして提供されているキットを使っている。音のほうから映像に情報を与えて連携していくようなことを，もっとやりたいと考えているとのことだ。そのための試験導入として，この仕組みを作れたのはよかったと中西氏は語る。さらにインハウス開発したダイナミックレンジコントローラプラグインソフトウェアの紹介がなされた。ダイナミックレンジを圧縮するためには，音量の大きなところから潰すというのが一般的だが，今回紹介されたのは小さい音量の部分を上げるというエクスパンダータイプのプロセッサのようだ。手動フェーダー操作のような動作をするプラグインが作れないか，というアイデアを得て開発したのだという。こちらもVST版とWwise版を作ったが，VST版だけでこと足りたため，Wwise版は製品で使われることがなかったそうだ。「本日ここで幻のプラグインをご紹介することで，これを供養する（中西氏）」のだとか。そして最後のトピックである「VRモードにおけるサウンドについて」の解説が行われた。VRモードのサウンドコンセプトは，キャンペーンモードと比べ，コクピットに座ったときの孤独や恐怖をより強調しよう，ということだったそうだ。「リアリティを出す要素を通常のモードより強化しなければならないが，ゲームとしての迫力やプレイの満足感を失わないように考えて作っていった（中西氏）」とのこと。ここでVRモードで使用した実機の音だけで，MA時補正なしの「生」動画が紹介された。VRモードは当然ヘッドフォン使用前提なので，ヘッドフォンに特化したサウンドデザインが行われている。「チャンネルベース，オブジェクトベース，シーンベース，これらを組み合わせて表現している（中西氏）」。基本的にオブジェクトベースがメインだが，用途によってはほかのものを混ぜて使っているそうだ。AC7のVRモードはWwiseのサラウンドプラグインであるAuro 3D Headphone Plug-insを使っていて，「今回は13.1chのスピーカーシミュレーションを使っていて，処理負荷はやや重め（中西氏）」だそうだ。氏曰く「このゲームでは，プレイヤーにとって上空の情報は非常に重要なものなので，搭載した」とのことだ。このプラグインはVRモード時だけ有効になるが，すべての音をこのプラグインで処理しているわけでもなく，たとえばBGMや無線音声はAuro 3D Headphoneの処理を通さず，ダイレクトにヘッドフォンに送っているという。実際の組み込み方にもVRならではの工夫が凝らされている。まず一つめが「VRは視界の外をごまかせない」というもので，「VR開発の途中で，『音が鳴るよね』とプレイヤーが予測しているところで音が鳴らなかったときの絶望感というか，没入から引き剥がされる感じは結構プレイの没入感に影響するなと思った（中西氏）」そうで，「我々が見て欲しいと思うところを必ずしもプレイヤーが見てくれるわけではないのがVRの特徴（中西氏）」という考察を披露した。「普通，こっちを見るだろう」というところで脇道を見てしまって，その場所の音が鳴らないので醒めてしまう……ということが実際に起きてしまうのがVRなのだそうだ。没入感が強い分，鳴るはずの音が鳴らないと違和感で没入感が失われるのだろう。「なので，出会ったイベントだけでなく，横を見て，後ろを見て，上を見て，下はだいたいケアして，いろいろなところを見ておく。すべての音を仕込んでおくわけにもいかないので，この音は実装しておかないとという音を予測して，その音をすべて仕込んでおくのは少し大変ではあるが，やっておかなければならないことではあった（中西氏）」と語る。これは語っている以上に大変な作業だったと思う。通常のゲームでは「見えないところは何かしら意図がない限り音は鳴らさない」のがお約束で，見えないものには配慮しないのが当然だからだ。次にコクピットの音響について解説がされた。コクピットはキャノピーに覆われているので，外の音は籠もっているというのは容易に想像がつくだろう。そして「このコクピットという密閉空間を再現する際，やはりローパスフィルタでそれなりに高周波を削ることになるが，削ったら削ったでチープに聞こえてしまう。なので，ただ籠もらせているだけでなく，ゲームの体験として迫力を抑えてはいけないので，しっかりブーストしてあげる，エアーの籠もりも機体に施す，という処理をする。近距離のイベントは聴きたい要素の一つなので，フォーカスを当てて，しっかり聴かせる処理を行っている（中西氏）」そうだ。さらにコクピットの内側の音響について言及された。こちらにはプレイヤー自身が動いたときの音や内部機器の音，アラート音などが含まれるが，非常に生々しい音にしているそうだ。外側の籠もっている音と異なり，コクピット感を感じられるよう作っているとのこと。機体の振動やきしみも意外と重要なので，生々しい音でたくさんこれらの音を仕込んでいるという。プレイヤーが被弾したときだけではなく，当たってはいないけどすれ違いで結構ニアミスしたときにも機体がきしんだ音をつけているが，これも結構効果的だったと中西氏は語る。そしてキャンペーンモードとVRモードは異なるミックスを行っているという紹介だ。コクピットに座る孤独と恐怖の強調，というコンセプトがあったが，これを身近に感じさせるために，アラートや無線音量を大幅に増やしている。また，無線の低周波成分もかなり増やしているそうだ。そうするとより音を近く感じることができるのだという。Ambisonicsの利用法についても解説された。VRモードのハンガーのシーンで使われていて，外にいるヘリコプターや戦闘機の再現に効果的だったそうだ。これを点音源として置いてしまうと，その方向感がはっきりしすぎてしまう。Ambisonicsの，音が鳴る方向が曖昧になる感じがむしろちょうどよかったのでそれを採用したそうだ。ファーストオーダーのAmbisonicsをプリミックスしたものをループさせて流しているとのことだった。VR（AirShow）のサウンドデザインについても言及された。本当の航空ショーを見学しているかのように錯覚させることを目標にトライしたという。遠距離から近距離まで，かなりダイナミックに音が変化するようにしたとのこと。あとは自由な視線移動や場所も移動しなければいけないということで，それにも対応できるように対処したそうだ。基本的なやり方は3つで，遠方の空気の鳴りと，パワー変化にも対応するジェットサウンド，後は超接近時のパス音というところをレイヤーさせ，遠距離からより正確な距離感が得られるよう，工夫しているという。とくに遠距離と近距離で，RTPCで方向感をずらせるという仕込みが結構効いていて，近づけば近づくほど，音源の位置情報は大事になってくる。イメージとしては遠くではチャンネルベースで鳴っていて，近くではオブジェクトベースで鳴っている感じだ。最終的にどう聴かせたいか，という答えはあるのだが，それを因数分解して，作っていったとのことだ。最後，渡辺氏から，サウンドデザインは演出意図の中で何を大切にしたいのか，どこにこだわるべきかを考えて設計しようということで，「サウンドデザインに唯一の正解はない，失敗を恐れず試してください。私はAC7の開発をしていて，AC7に対してはもうアイデアを入れ込んだり，工夫する余地はないのですが，皆さんが今取り組んでいるプロジェクトについては，皆さんのステキなアイデアをどんどん盛り込んでいっていただければと思います」と締めくくった。VRを含めたリッチコンテンツの制作における成熟度はこの2，3年で飛躍的に増している印象だが，セッションを聴講して，そのトップランナーの一社であるバンダイナムコスタジオの制作手法にも同様の成熟と進化が感じられた。以前は新トピックだったAmbisonicsなども，あくまで要素の一つであったり，プレイヤーには一つの音にしか聞こえないエンジン音や飛行音を10くらいの音をリアルタイム制御しながらリアリティを増していくなどの工夫が凝らされている。Wwiseの使い方も洗練度が高くなり，自然に使いこなしている印象だ。これらを通して見えてくるのは，決してリソース的にはPCのようにザブザブではないPlayStation 4でもここまでのリッチコンテンツを作れるという，いい模範例ではないだろうか。相変わらず参考になる「ネタばらし」大会であった。