Amazon
Writing Interactive Music for Video Games: A Composer's Guide (Game Design): Michael Sweet: 9780321961587: Amazon.com: Books
http://www.amazon.com/Writing-Interactive-Music-Video-Games/dp/0321961587
公式サイト
Writing Interactive Music for Video Games | A Composers Guide
http://interactivemusicbook.com/wp/
Writing Interactive Music for Video Games要約
Chapter2 インタラクティブミュージックの言葉を分解する
Guy Whitmoreのコラム:Imagine, Desing, Integrate
テーマを使ってキャラや場所に結びつける方法は、Music Conceptualizationの所で詳しく。
ゲームシステムとかストーリーも色々なので合わせなきゃねという一般的な話。
ゲーム音楽の分類
-------------------------------------------------------
アンダースコアとも言う。
繰り返し問題とかの話。
ジョン・ウィリアムスがジョーズで有名なテーマを使いまわした話。
カクテルパーティー効果を引き合いに、耳が慣れてくる現象を説明。
ただし毎回新しいのが良いわけではない、と当たり前の結論。
リアリティを高めるために使われる。
既に公開されているライセンス曲が使われることも多い。
ラジオだったりライブハウスからの音だったりジュークボックスだったり。
音楽に「直接的な」影響を及ぼすメカニクスがある場合はこれに属する。
さらに以下の3つに分類される。
ギターヒーローやRockBandなど。
ゲームプレイにともなって生成される音楽。
パラッパラッパー(ラップを生成)
Rez(SEから音楽を生成)
Bit.Trip Runnner(音ゲーだけどアクションが音楽になっているように見せている?)
Portal2のノイズを発生するオブジェクト(なんのこと??光のパズルのあれ?)
ダンレボ、スペチャン5、Amplitudeなど
いわゆる音ゲー。
XBOX360はユーザー音楽への変更を可能にしていた。
AudioSurf、ビブリボン、SSX
ゲームにおける音楽の効果
--------------------------------------------------
ゲーム内の場所と時間を伝える。FFはそれを活用していることで知られている。
マリオの地上と地下のテーマも有名。
Mass Effect trilogyなんかはたくさんキャラが出てきてそれぞれにテーマがあっておすすめ。
すぐ戻ることが多いので、Verticalなアプローチが適している。
RedDeadRedemptionは探索、移動、戦闘でこれを鳴らし分けている。
Asteroidsやインベーダーゲームなどの古いものではテンポによって緊張感を表現していた。
プレイヤーが死んだ時や、あるいは戦闘が終了した時にStinger(ジングルに近いだろうか?)を再生する。
Metro: Last Lightは戦闘終了時にStingerを再生していた。
ゼルダやHaloといったゲームはアイコン的なテーマを持っており、
これにより染みこませたテーマを再生してプレイヤーの期待をコントロールすることができる。
映画などと同様に、ストーリーの流れを伝える。
音楽をシンクロさせる
---------------------------------------------------
映画とかだと合わせやすいけどゲームはトリガー入れないといけないよね。
・状態変化(探索から戦闘へ、など)
・ロケーション変化
・HP変化
・昼夜、天候
・敵との距離
・パズルを解いた時
・ボスを倒したりステージクリアした時
偶然の一致
---------------------------------------------------
流してるだけでも適当に合うことはあるけどほとんど合わないよね。
PinkFloydのアルバムDark Side of the Moonが魔法使いのオズに合わせて流された?
Bioshockの1作目では、新しいエリアに入った時に音楽が鳴り始めるけどそのままで、終わるタイミングにプレイヤーが何をしてるかはわからなかった。
音楽のコンセプトを定める
----------------------------------------------------------------------
1, 今ある(作成途中の)ゲームの素材を集める
ないこともあるけど気にしない。
2, 優先度を決める
このゲームで重要なのはなにか?パズルか、ストーリーか、キャラか、何か?
それとさっきの「ゲームにおける音楽の効果」を見比べて、音楽の役割を定めよう。
3, アセットリストを作る
4, インタラクティブな要素を定める
「音楽をシンクロさせる」を参考にトリガーやパラメータを考える。
5, スタイルガイドを作成する。
どんな方向性、ジャンルで行くのかを決める。
何か作る前に、スタッフの嗜好性を見たほうがいいかもしれない。
もしゲームデザイナーがサックスの曲を聞くと別れた彼女を思い出すなんて人なら……サックスを入れた曲は何であれ使えないかもしれない。
・ジャンル
・テンポ
・楽器
・演奏者数
それぞれのゲームの部分によって、違うスタイルガイドがあっても構わない。
6, オーディオデザインドキュメントを作る
・スタイルガイド
・インタラクティブな要素
・曲数と長さ
・ファイル名やフォーマット
などを含むべき。
7, 見直す
ゲーム音楽の分析と批評
-------------------------------------------------------------------------------
良いゲーム音楽を作るには、ゲームプレイの観点から音楽を評価する言葉を手にする必要がある。
この分析は非常に主観的である。量的ではなく質的である。
正解はないから、自分でしっかり持っておくこと、また、スタイルガイドを作成する事が基準を作成する上で良い方法となる。
他にも、
・音楽に気がつくか、それとも世界や物語に隠されているか?
・オーディオデザインドキュメントの目標を達成しているか?
・音楽遷移はシームレスか?トランジションなしにジャンプが生じてしまう場合があるか?
・音楽がちゃんと物語や体験を増幅させているか?
といった観点が必要だろう。
インタラクティブミュージックとはなにか?
------------------------------------------------------------
「インタラクティブスコア」は何かの入力によって動的に変化する音楽と定義される。
これから学ぶことになるが、使うことのできる入力の種類は無限だ。
プレイヤーはゲーム中に様々な意思決定をするが、それらが直接または間接的に音楽に作用する。
これらの作用は結果としてプレイヤーのエモーショナルな体験を増幅するために音楽を合わせる目的で使われる。
コンポーザーはストーリーテラーである。だから、ゲームプレイによるプレイヤーの感情の変化を掴んでおかなくてはならない。
Note:インタラクティブミュージックVSアダプティブミュージック
この本ではどちらも同じ意味として扱うが、微妙な違いはある。
インタラクティブっていうとGuitarHeroとか、より直接的な音楽のコントロールを指す場合があり、
アダプティブというのはゲームから来る間接的な変化を指す場合がある。
Uncharted2では、主人公が敵に近づくと探索から緊張へと曲が変化する。その敵とバトルを開始すると、
いくつかのバトル曲の中の一つにまた遷移する。バトル曲はさらにバトルの激しさによっても変化する。
この時使える変化というのは様々で、トランジションを作って遷移したり、テンポを変えたり、楽器を追加したり、などだ。
この本では、どのように音楽を配置し、またどのようにそれらのトランジションを作るかまでを学ぶ。
Note:Cueとはなにか?音楽のキューといえば、初めがあって中身があって終わりがある一つの曲を指す。
ゲームではそれがひとつの状態やキャラクターや場所に紐付けられる。
クラシック音楽でいう「楽章(Movements)」がこの役割に近い。
MotifとかThemeと呼ばれるのは特定のメロディや楽節がストーリーの要素(キャラとか感情とか場所)に紐付いているもので、
プレイヤーにそれを想起させ、ゲームが与える感情の基礎や持続感をもたらすために何度も使われる。
インタラクティブミュージックの種類
----------------------------------------------------------------
実はインタラクティブミュージックというのはゲームだけのものではない。
それどころか、いろんな音楽のスタイルとして広く普及していて、100年以上の歴史がある。
即興とは自発的にあるいは準備なしに演奏される音楽である。
新たなメロディや和音を周りの聴衆やバンドの状態に応じて創りだす仮定はまさにインタラクティブミュージックといえるだろう。
即興で最も一般的なのはジャズであり、テーマを演奏してからコード進行に合わせてソロを回す。
即興というのは普通、演奏者がメロディを少しずつ新しいアイデアをおりまぜながら変えていくというように表現される。
キーやコード進行といったものが思いつく音などに必要な情報を与える。
ゲームの音楽を作るのも似ていて、音楽全体の構造(Framework)を作曲者は提示するが、その情報をもとに
最終的な音楽を導き出すのはプレイヤーといえる。
即興のもう一つの例として「ドラムサークル」(drum circle)がある。
最初の人がリズムを提示して、皆がそれを繰り返し、それを徐々に発展させながら進む音楽だ。
他の音楽でも、バンドリーダーが音楽を形作り、他の演奏者にも自発的なソロを促すなどの形式はある。
例えば、ファンクアーティストのJamesBrownなんかは演奏中に「ブリッジに!」って言ったらバンドが
今のセクションが終わった後にブリッジを演奏して次のセクションに行く。こうやってダイナミックに音楽を展開させている。
ゲームでも例えば戦闘状態に入った時にトリガーが送られて、今のフレーズが終わった後にバトル曲に遷移、といった事が行われている。
もう一つの重要なメッセージは「バリエーション」である。
次々にメロディやハーモニーを変化させていくことができれば、1曲の長さを延長する手段となる。
リアルタイム作曲とは、進行するストーリーを見ながら演奏者が音楽的な判断を行ってそれにあわせていくようなものを指す。
ここでは2つの例を見ていく。無声映画への音付けと、サーカスの音楽だ。
これらはゲームの音楽にもかなり応用できるだろう。
即興とリアルタイム作曲は似ている所もあるが、根本的に違うのは即興が入力を演奏者自信または聴衆によっているのに対して
作曲はストーリーやシーン、ナラティブによっている所だ。
映像に音を同期させる技術がなかった頃、無声映画(1895-1930)はピアノやオルガンによる伴奏がつけられていた。
音がついた映画が出てくるまで、音楽は映像に対して特別に作られてはいなかった。
映画スタジオはしばしば「photoplay music」と呼ばれるキューシートを送って、映画の伴奏を指定していた。
その後(1925-1930)大規模な映画スタジオがその映画のための音楽を作曲家に依頼しそれを映画館に送るようになった。
映画伴奏家(Film accompanists)はリアルタイムで作曲をしていた。指定された音楽のキューを、スクリーンをガイドとして
次々に遷移させていった。これは彼らの膨大な音楽のレパートリーのなせる技といえる。
実演する前に一度しか通しで映画を見る機会がなくても、送られてきたキューシートにしたがって
その場で音楽を編曲してつなげていた。
ゲームではこうした役割をCPUが音楽エンジンに伝えているといえる。
サーカスの音楽はもうひとつの面白い例で、音楽はサーカスのトリックと直列に同期する必要があるため、
その合図を送る様々な方法が考案されていた。
バンドリーダーが演技を見守り、演者が次の動きに行くまでリピートを続ける。
そして動きがあった時に終止形の演奏をはじめて次のセクションへと移る。
コード進行のマップは非常にフレキシブルでなければならず、音楽のペースも展開も
演奏者ではなくパフォーマーが決めることになる。
いくつかのトリックはある楽器によって真似して(mimicked)演奏されたりもする。
例えば、ロープの上で何かを投げてキャッチするときにパーカッショニストがスネアのロールを始めて
投げたもののテンションにあわせて強弱をコントロールするなど。
こういったトリックの最中には何が起こるかわからないので、全員でアンサンブルするよりは
一人のパフォーマーが真似したほうが良い場合がある。
サーカスバンドのリーダーは演技が始まる前にどんな技があるのか、どこで拍手がくるか、
トリックがどれだけ続くか、などの情報を共有する。
そしてリアルタイムでアンサンブルがマッチするように演奏をコントロールする。
小さなサーカスでは1,2回の講演のために演奏者を雇う場合もあるので、
こういった楽譜はとてもフレキシブルで読みやすくなければならない。
セクションとトランジションがはっきりわかり、終止形や繰り返しが演奏者にとって読みやすくなければならない。
サーカスは現代のトレンドに沿って進化しているため、シルク・ドゥ・ソレイユなんかはAbletonLiveのような
現代のテクノロジーを使ってセグメントのループやビートに同期したトランジションを実現している。
オペラの演奏は演技に合わせてテンポを調整しているといえるし、
そもそもオーケストラの演奏もダイナミクスは指揮者がインタラクティブに指示している……?
ゲーム音楽を作る際は、ダイナミクスの変化やテンポチェンジといったアプローチも考えておくと良いだろう。
chance music, aleatoric music, indeterminate music
Chapter6で詳しく見るかも?
ニューヨークにあるReachという名前のインスタレーション、そこを歩くと手がとどくくらいの空中で音が鳴る??
入力装置
-----------------------------------------------------------------------
・コントローラ
・Kinectとか
・タッチペンとか
・キーボード
・ハンドルとか
・銃とか
・マイクとか
・ギターとか特別なもの
直接的な例:Rez,Fract OSC,パラッパラッパー
間接的な例:時オカ
この本で「control input」という場合、間接的な要素も含む。
・キャラの位置
・敵の位置とか近さ
・環境的な要素
・緊張度
・プレイヤーに与えるべき感情
・HP
・NPCの動き
・プレイヤーのアクション
・パズルの進行度
The Composer's Toolbox
------------------------------------------------------------------
まず最初に想像する。制限などを一切取っ払って、どのような音楽が、どんな音楽の流れがこのゲームに合っているか。
私はよくゲームプレイをそのまま録画して、リニアなショートフィルムだと思って曲をつけてみる。
ゲームデザインや技術的制約を気にせずに、映像との一体感を実現させる。その後で、
「どのようにしたらこの流れや同期をゲームで実現できるのか?」を考えていく。これがゲーム音楽デザインの出発点となる。
音楽のデザインでは想像をコンセプトに落としこむ。どこでどのように音楽が鳴り、
どのように機能するか。この作業は非常にクリエイティブであり、作曲と同時にシームレスにつながるときに最も効果的だ。
一つのリニアな音楽を考えるより、あらゆるゲームプレイに対して考えられる音楽の可能性を想像することだ。
自分の音楽をフレキシブルでかつノンリニアなものとして考える事ができる事が重要であり、
かつ膨大なイノベーションへの余地が残されているといえる。
これは技術的なタスクだからといってツールに慣れ親しんでいないコンポーザーもいるが、
DAWと同じようにこういったツールを学ばなければならない。
ここで初めて音楽が映像と同期される、ここで「スコアリング」が完了するのだ。
しかしもっと重要なのは、これらのツールはとてつもない速さで進化しているため、
その制限に縛られていると思わないことだ。彼らはあなたの意思と工夫があれば力になってくれるだろう。
それこそがあなたの音楽に命が吹き込まれる瞬間だ!
最もシンプルな方法としては、そのまま切り替える。最初のスーパーマリオブラザーズでのスターを取った時とか?
こういった変化はプレイヤーを驚かせるので、場合によっては没入感を削いでしまう事がある。
次に出てきたのがクロスフェード。フェード中を隠すために、SEを使ったりStingerを入れたりするときもある。
多くのFFタイトルは探索から戦闘に入るときにこの方法を用いている。(戦闘曲のイントロループのことか?)
さらに進化した方法としてLucasArtsがiMuseというシステムを作り、音楽的なフレーズの終わりを待ってから遷移するようにした。
これはMonkey Island 2: LeChuck's Revenge(1991)などで効果的に使われた。
メロディを途切れさせてしまうのも没入感をそぐきっかけになるので、このテクニックは広く使われるようになり、
ほとんどの現代的なミドルウェア(FmodとかWWise)にはこの機能がある。
これによって、音楽のキューを複数のパーツに分けて使うことができる。
例えばパズルゲームで時間切れになりそうなときだけ鳴る部分があり、それまでは通常部分をループしつつ
時間が近づくとシームレスに(小節や拍に合わせて)遷移する、こういったテクニックをこの本では「音楽構造操作(Musical Form Adaptation)」と呼ぶ。
ゲームではこのように一つの音楽を複数のセクションに分けることがあり、このセクションは先ほど言った「Musical Form(音楽構造)」にあたる。
一般的に、音楽は音楽形式とか音楽構造をもっている。ポップスならサビとメロがあるだろうし、イントロがあったり、緊張感が高い所、低い所、
そしてエンドロがある。これらをゲームの状態に応じて切り替えたりすることが、音楽構造操作である。
このテクニックは広くは横の遷移(Horizontal Resequensing)と呼ばれている。これについて詳しくはさらにChapter8で述べる。
コラム・IntelligentMusicSystems
(現在の再生位置を認識してトランジションを判断するシステムをこう呼んでいるらしい)
Uncharted2では、敵に近づいた時の軽いパーカッションレイヤーと、戦闘に入った時の重いパーカッションレイヤーがあった。
そしてストーリーが展開した時はトランジションに移ってどちらもフェードアウトするようになっていた。
Batman:ACも同様の手法を使っている。
この方法は2つの状態が短い時間で切り替わるときに使いやすい。
このテクニックはゲーム業界では「縦の遷移(Vertical Remixing)」と呼ばれている。
Chapter9でこのテクニックについて更に詳しく述べる。
インベーダーゲームは徐々にテンポを上げる演出を行っていた。
最近だとマリオギャラクシーで、マリオが玉乗りするときにその速さによって曲の速さが変わったりしていた。
Rezではプレイヤーがうまくやっているかどうかによってテンポが変わっていたし、
そして何よりリズムがプレイヤーのアクションによって生成されていた。
MIDIだと簡単だけどWavだと難しい。これについては、Chapter14で更に詳しく述べる。
SSXTricky(2001)では、HPFがジャンプした時に使われていた。
CoD(2003)では、死にそうになった時にLPFがかかっていた。
・Filters(バンドパス、ハイパス、ローパス)
・ディストーション、オーバードライブ
・(Time-Based Effects)リバーブ、ディレイ、コーラス、フランジャー
・(Dynamic-Based Effects)コンプレッション⇔エキスパンション←ダイナミックレンジを小さくするか大きくするか、らしい
・ピッチシフト
だいたい10秒未満の短い音楽のフレーズで、ゲームのイベントを伝えるもの。
パワーアップやステージクリアなどを伝えるもの。
新たな音楽の開始点や終了点として使われることもある。
カジュアルゲームでは特にこういったものが多い。
リズムに合わせて再生されることは少ないが、IntelligentMusicSystemなら可能なはず。
でも素早く出るほうがいいよね。
トランジションとして使う場合はまたメリットがあるので、これについてはChapter10で述べる。
(ジングルとトランジションって別物だと思うけど、この本では似たものとして扱うらしい)
普通はなかなか使えないが……MonkeyIsland2では使われていた。プレイヤーが行く場所によって同じテーマのまま楽器が変更されていた。
これはころころテーマを変えてしまうよりは良い方法になりえる。
アレンジ変更は楽器というよりリズムやコードといった要素を変えてしまう技。
これは、ゼルダの伝説スカイウォードソードのショッピングモールで実現されたもの。
縦の遷移に似ているが、パートを足すというより変えてしまうというアプローチ。
MIDIとかの方がやりやすい。これについてはChapter13で述べる。
あまり多くはないが、RezとかChild of EdenとかFractOSCとか音楽を操作するゲームならある。
DirectMusic(1995)にはコード進行を変更する機能があり、音楽のモードやキーを簡単に変更することができた。
Asheron's Call 2: Fallen Kings(2002)とNo One Lives Forever(2000)で使われた。
これらのアプローチについてはChapter15で詳しく述べる。
次のようなテクニックがある
・メロディ生成
・音の長さ変更
・コード、モード、キー変更
プレイヤーが音楽に「気づいて」要るとき、その音楽はうまく機能していない、といえる。
ゲームのプロダクション工程
---------------------------------------
一般的なゲーム作りの工程の話。
The Spotting Process
-------------------------------------
続き。そして音楽がどの段階でインタラクティブを考慮しはじめるか。
コラム メニュー曲とゲーム曲とシネマ曲、トランジションがあるよねって話。
ゲーム音楽のゴール
---------------------------------
これ前も同じのなかったか?
感情曲線の設定
------------------------------
emotional arc mappingという。緊張、解放、クライマックスへの流れを決める。
IMの構造を決める
-----------------------------
今までと同じ話。。
シンクロさせる
--------------------------
シンクロしてないと音楽に気づかれてしまう。
CarlStallingが手がけた映画音楽では、例えばネズミが階段を登るときには毎回似たような弦楽器の上昇フレーズがあったり、
Disneyの初期の映画(1930-1940)は必ずこういった「ミッキーマウシング」が行われていた。
DesertDemolition(1995)というゲームでミッキーマウシングが使われた。
-----------------------------
Note:よく出来たIMはやってても気づかないけど、想定されていない行動(変化ポイントを行ったり来たり)すると気付ける場合がある。
そういう時は15秒とかのタイムアウトを設定して、音楽がコロコロ変わらないようにする事もある。
音楽を変化させるインプット
--------------------------------
具体的に考えてみる。
Portal2ではオブジェクトに音楽がアタッチされていた。
アサクリ3でも、オペラを歌うキャラクターなどが該当する。
繰り返し、ランダム、驚き
----------------------------------
・セグメントの順番をランダムにする
・バージョン違いを作る
・無音部分の長さを変える
・ずっと同じエリアにいる場合はそのうち音楽を止める
・レイヤーを作る
ここでは全部やらないから、知りたければKarenCollinsさんのGameSound本を読もう。
---------------------------------------
1900年ごろからジュークボックスとかスロットマシン、
1920年代から景品つきゲームやアーケードのゲームなど
1960年代には電子サーキットや機械式シューティングゲーム?など
Sega「GunFight」(1970)などが武器の音を鳴らしていた。
SegaのSandBuggyではループするテープが使われていた?
ピンボールは1770年ごろからあった。
1871年にはベルが追加されたピンボールが作られた。
1933年には電子音でベルが鳴るように。
1936年のBally's Bumperはバンパーが初めて導入された。
electromechanical scoringって楽曲のこと?点数のこと?
electroとdigitalって違うのかな。
1986年のWMS製ピンボールRoadKingsが初めてFMシンセを使った。
データイーストのBatman(1991)でカスタム音源が載せられるようになった。
WMSはその後MP3みたいな圧縮方式でピンボールゲームで音楽を鳴らすことに成功した。
-------------------------------
・回路
電子回路ではほとんどがカスタムで音を出せるように作っていた。
BootHill(1977)ではいくつかの単旋律のメロディーがゲーム開始時、死んだ時、クリア時に鳴らされていた。
SpaceInvader(1987)は初めてのAdaptiveScoreといえる(テンポが60から徐々に上がっていく)
・プログラマブルサウンドジェネレータ(PSG)
NamcoのRally-XでNobuyuki Ohnogiが初めてBGMを鳴らした。
PacManも同じハードでリリースされた。これはToshio Kaiが作曲。
これらはゲームの最初だけでなくレベルの間などでも音楽を鳴らした最初の作品たちといえる。
1980年台にYamahaやTexasInstrumentsがGeneralInstrumentsを作ってから楽になってきた。
でもまだ3音同時発音が限界だった。
サイン、のこぎり、矩形、三角、ノイズとADSRがそれぞれ使われた。
Frogger(1981)では初めてのアダプティブな音楽切り替えが実装された。
画面上に到達するたびに曲が移り変わっていた。
DigDug(1982)では、プレイヤーが動いている間だけ鳴る音楽
Journeyというバンドをフィーチャーしたゲームがあったそうだが、歴史的クソゲーらしい。
FM音源が出てきて同時発音数が8音になってきたのが1984年ごろ。
Hiroshi Kawaguchi スペースハリアー(1985)、アウトラン(1986)、アフターバーナー(1987)
Atariは同時発音数2音だった。しかも出ない音程があったり。Intellivisionは3音。NES(1983)でやっと5音。
スーパーマリオブラザーズ、ゼルダの伝説ではその制限のため、アイコニックなメロディやリズムが使われた。
また、SEのためにしばしば和音が停止され、SEが音楽のインタラクティブ性のインプットになっていた。
SNESが1991に出てきた8音まで可能になった。ChronoTriggerやFFが革新を起こしていった。
・DVDの時代
ドリキャスでスペチャン5(2000)とRez(2001)が出る。
PS2ではSSX Tricky(2001)でDSPが活躍した。
XboxではHalo(2001)にて"incredible adaptive score"が実装された。Marty O'Donnell Michael Salvatori
GameCubeではゼルダの伝説風のタクト(2002)が出た。同時にどうぶつの森(2002)も"immersive score for the happy world of animals"を実現した
------------------------
MIDIよりも音を埋め込んで再生するMODが主流だった。
Quake(1996)やUnreal(1998),DeusEx(2000)はMODを使って、戦闘と探索のアダプティブミュージックを実現していた。
Doom(1993)やMarathon(1994)といった初期のFPSはMIDIを使っていた。
・iMuse=(Interactive MUsic Streaming Engine) by LucasArtsのPeter McConnellとMichael Land
史上初のIMシステム。音楽に分岐やループマーカーを埋め込んでプレイヤーの決定によって変化する音楽を作った。
MonkeyIsland2(1991)で初めて使われた。プレイヤーの行く場所に応じて音楽の再生場所を分岐させていった(セクション遷移)。
(↑には同作品が楽器変更を利用していた記述もある)
LucasArtsは以降の作品ほぼすべてにこの技術を使っている。
Day of the Tentacle(1993)、GrimFandango(1998)にも使われていた。後者にはジャズの音楽が使われた。
・CD-ROMの時代
プリレンダの曲が使われるようになり、音楽のインタラクティブ性は再生、停止くらいしかなくなってしまったが、
このディスアドバンテージを前にしても当時のコンポーザーは良い音を出せるプリレンダの方を選んだ。
Quake(1996)やDiablo(1996)などがこの時代のCD-ROMによる作品。
----------------------------------------
1980年台にはNintendoのGame&Watchが出ていた。
これは同時に1音しか鳴らせなかった。
1989年にGameBoyが発売。これは2つの波形生成器があり、1つはPCM、1つはノイズジェネレータだった。
その後SegaからGameGear(1990)が発売。Sonic the HedgeHog(作曲:古代祐三)が同梱された。
その後GameBoyColor(1996)、そしてAdvance(2001)が発売。
アドバンスは、これまでの再生機構に加えて2つのオーディオストリームが利用できた。
しかし、カートリッジの容量(せいぜい256MB)の限界もあり、多くがMIDIやMODファイルを使っていた。
DS,PSPが2004年に発売し近年の携帯ゲーム機の時代が明ける。
・ネットワークゲーム
ブラウザはたいてい音を再生する機能がなかったので、だいたいプラグインに頼っていた。
ShockWaveやFlashといったものはオーディオファイルを再生できたがMIDIはできなかった。
Beatnik(HeadSpace社)というのがその後開発され、MIDIが再生できた。
----------------------------------
JohmMilesは1991年ごろから、PCのサウンドカードの仕様が色々違うのに対応するために、MilesSoundSystemを開発した。
1995年、MicrosoftはBlueRibbonSoundworks社のソフトウェアを購入し、後にDirectMusicエンジンとして拡張された。
DirectMusicは非常にユニークな機能を多数有しており、動的な楽器変更、リアルタイムコード進行マッピング、
ある和音構造の上で即興的にメロディを生成する音楽スタイルの生成などがあった。
DirectMusicは非常に先進的でありながら、そのフロントエンドのUIは同時にとてもむずかしいものだった。
Guy WhitmoreがNo One Lives Forever(2000)で利用し、
JasonBoothがAsheron's Call 2: Fallen Kings(2002)で利用した。
この挑戦的なUIのせいもあり、MicrosoftはXACTを2000年台後半に作ることになる。
現在はXAudio2が利用されており、これには作曲家向けのツールは用意されていない。
その他、SonyはSCREAMと呼ばれるツールを作っていたし、
Bungie,Bethesda,Ubisoft,DICE,EAといった企業は自前のツールセットを持っていた。
こうした別々のツール製作者が集まる機会は少なかったが、IASIGがその役割を担った。
MIDIManufacturersAssociationがスポンサーとなっている。
ここではID3L2リバーブやDLSの仕様などが策定され、DirectMusicやFmodなどに利用された。
また、インタラクティブミュージックのための標準フォーマットであるiXMFを定義しようとした。
こういった実装の様々な違いから、コンポーザーやサウンドデザイナーが習熟することが難しくなってしまっている。
現在はFMODとWwiseが主流で、他にもMilesSoundSystem、OpenAL、Fabric for Unity3D、ADX2、Un4seen BASS、などがある。
---------------------------------------
PS3,XBOX360,Wiiなどの世代。
ゲーム音楽のコンサートが盛んになり、オーケストラの曲がよく使われるようになる。
インタラクティブミュージックの成功例としては、MassEffect2(2010),Batman:ArkamCity(2012),Portal2(2011)などがある。
今世代機(PS4,XBOXONE,WiiU)になるとさらに制約がなくなったが、それでもサラウンドやリアルタイムDSPなどの対応で、
まだメモリやCPUとの戦いは続く。DSPで言えば、例えばMelodyneのようなプラグインが作れれば、実行時に曲のキーを変えたりもできるだろう。
DSPを使ったもので有名なのがSSXのリアルタイムユーザー楽曲リミックス(RUMR)だろう。
音楽に同期した動的ディレイやリバーブ、リアルタイムのピッチベンドなどがあった。
あとゲームエンジンやインディー産業、ダウンロードストアやクラウドゲームの話がちょろっと。
20世紀以前
-----------------------
バッハのThe Art of Fugue
楽器が指定されていなかった?
楽器を実行時に変化させるアプローチはゲームでも用いられている。
MonkeyIsland2では行く先々でメロディの楽器を変えていた、ゼルダの伝説スカイウォードソードのショップ、Asheron's Callの楽器を買って演奏、など。
リフやフレーズを使って他のプレイヤーと一緒に演奏することができた?
モーツァルトのMusikalisches Wurfelspiel
曲名はMusic Dice Gameという意味で、177のフレーズの演奏順をダイスで決めたらしい。
Uncharted2では、レベルが始まるごとに曲の再生開始場所をランダムで選ぶようにしていた。
DinnerDashは毎回曲のセグメント順をランダムにして流すようにしていた。
フレーズが分割され、他のフレーズと繋げやすいように作られていた。(完全に任意の組み合わせなのかどうかは謎)
1900-1950
----------------------
MarcelDuchampのErratumMusical
Noteのランダマイズ?
BitTripRunnerではジャンプとかスライディングの時にランダムなペンタトニックの音が鳴らされていた。
ArnoldSchoenBerg
12音技法を編み出した?
Spore(2008,Brian Eno)で12音技法(serialism)が使われた?
Chime(2010)っていうルミネスっぽいゲームはブロックごとに音を鳴らしていた……らしいが、動画を見た感じ普通にBGM鳴ってる。
1950年以降
-----------------------
MortonFeldman Projections
今までの楽譜じゃなくて、絵で楽譜を記した?
Karlheinz Stockhausen Klavierstucke XI
19の音楽的な部分に分かれているのを好きな順番で演奏する
綺麗なループを作るのはゲーム音楽の作曲で重要だが、あまり一般的なツールも方法論も出回っていない。
大きく分けて2種類、横の遷移であるような同期しないループと、縦の遷移で使う同期するループがあり、
後者はループポイントを厳密に合わせる必要が有るためその分難しい。
音楽は、フレーズが集まってセクションになり、セクションが集まって音楽形式(form)となるが、
これにはいくつか種類がある。Sonata(exposition, development, recaptulation)や、Pops(verse, chorus, bridge)など。
ゲーム音楽も通常、以下の様な形式に分割される。
イントロ
Section 1(ループ)
Section 2(ループ)
...
アウトロ
ループを作る際に簡単なのはZeroCrossingPointで区切ること。SoundForgeとかはそういうところにスナップできるが、
複数のファイルのループ場所を同期させたい場合はそういうわけにもいかない。
横の遷移で使う分には、音楽的なタイミングとのズレが3-5ms程度なら気にすることはない(オーディオフレームのことだろうか?)
1ミリ秒くらいのフェードを作ってZeroを作る方法もあるが、いつも使えるわけじゃない。そりゃそうだ。
伸ばしている音はループさせにくよね、という当たり前の話と、パーカッションの音(Transient)があれば騙せるよね、という話。
音楽じゃなければ、2つの長さが違うループを重ねるという手もある(互いに素であればしばらく重ならない)
普通は表拍で切ることが多いが、ジャズとか何か特徴的なリズムがある場合はそういった場所で切るのも良い。
この時、一度切る場所を決めたらそれをセクション間で変えたりせずに一定に保ったほうが良い。
生楽器の場合はちょっと早く演奏されたりまたその逆もある。
この場合どうすればよいか……に正しい回答はないが、どうするにせよ、一貫した方法を取ることだ。
プレイヤーに合わせて少し前にループ開始を置いたなら、ループ終了は同様に少し前にすること。
リバーブの問題。
そのままだと絶対に気づいてしまうが、ひとつの方法としてはリバーブの音を先頭に貼り付けてしまうことだ。
最初に変に聞こえるかもしれないと思われるだろうが、そもそも「ループの前と後の構成を大きく変え過ぎない」という
基本に従っている限りは目立つことはない。
これは最後のミックスの際にやる必要がある。
・ループの前と後に数小節の無音を入れて
・5秒以上余裕を持ってバウンスしてリバーブテイルを取る。
・それをループ先頭に貼り付けて
・最後にもう一度ループの長さどおりにバウンスする
ショートカットとして、最初から最後のループであれば、最後のを切り取って最初に持ってきて
全部バウンスしてから持ってきた最初のを削れば、リバーブテイルを簡単に最初にくっつけられる。
最近のDAWの場合、LogicやAbletonLiveやProToolsはループを作る専用の機能があったりするので、それを使う手もある。
Wwiseを使う場合はPostExitというのが使える。(え、これってループの時も鳴ってたの!?)
同じ素材を前後に貼ってクロスフェードを作ってしまう方法もある。
詳細はp139にて。
最終的にはゲームエンジンで確認したほうがいい。MP3とかちゃんとできないのもあるし。
WwiseやFMODは自動ループ補間?保証?があるらしい?から心配する必要はない。PostExitのことだろうか。
DAWの見た目にそって横の遷移と呼ぶ。短い単位での変化には対応しにくい(20秒以下とか)。
前の曲を止めて次を再生するようなやり方をhard editと呼ぶ?
なぜかここでクロスフェードの話になり、突然縦の遷移の話になるw
確かにシンクロしないクロスフェードは横の遷移といえなくもないが……曲変えちゃってるしな。
一番簡単だけど一番違和感のある遷移。
クロスフェードの際に、フェードインは短め、フェードアウトは長めのほうが違和感がないらしい。
なるほど。そういえば、カプコンの講演だったかな?フェードアウトを超長くしたら全然境目がわからん、というのがあったな。
FF13ではバトルと通常曲をSEでトランジションさせてるって……あぁ、普通にバトルイントロ入るときに
モンスターのSEとか鳴ってるということか。なるほどな。
MGSの「!」とか、アイコニックな音を使いまくってる場合もあるけど、
普通は同じトランジションを使いすぎるとすぐ飽きられてしまうので、バリエーションを作る必要がある場合もある。
やっと本格的なセクション遷移の話が。
分岐楽曲、と呼んでいるが。これが最も音楽的であるが、タイミングによっては変になる。
たとえば戦闘が終わっているのに敵がいないのに曲が少し続いたりしていると、プレイヤーはまだ敵がいるのかと勘違いしてしまう。
(やはり状況をすぐに伝える場合は、特にプレイヤーの行動が直接起因して起こった勝利などはすぐに遷移したほうがいいな)
メロディが長いものだとこういうのは難しいので、ロックとかテクノだとやりやすい。
例えば32小節のセクションがあるとして、その中に4つの8小節ずつのフレーズがあるとしたら、
それを4つに分けて吐き出す場合がある(マジで!?)。そしてそのセクションではそれらをランダムに組み替えて再生する(なるほど)。
(やりすぎな気もするができなくはない)
こういうやり方はカジュアルゲームや携帯機でよく使われるらしい(メモリ節約のため)。(日本じゃ誰もやらないと思う。。)
作曲のフレームワークをつくり上げる時に、こういったフレーズをどこで切り分けるかという事も考えておくと良い。
どのようにしてそれらのフレーズをきれいに終わらせて次につなげるかも。そうやって長く積み重ねてきたものが素晴らしい音楽を作り上げる。
フレーズの終わりまで待つよりも、拍や小節などで切り替えても良い場合もある。そういった機能が昨今のミドルウェアには存在する。
もしメロディーを途切れさせないほうが良い場合は、フレーズを分割する手法が(クロスフェードなどより)良いだろう。
横の遷移を作曲する際に……ガラッと変えたりはできるけど方向性を見失うなよ、という当たり前の話。
開発チームへ渡すときに、ファイルごとに分けるときもあるし、
マルチチャンネルや1つの長いファイルにまとめてマーカー入れたりという場合もあるかもしれないし、
WwiseやFMODのプロジェクトとして作ってしまえる場合もある。
メリットとしては簡単に即座に変化を作れる、が、テンポやコードは変えられない。
あとはまぁ、メモリとかCPUは使うよね。
2つ~4つくらいが普通ではないか、とのこと。Forza5では12個のステムがあったらしい…!?
2種類の縦の遷移
----------------------
・レイヤー追加
追加するだけだからスイッチは2つ分で済む。
Fallout NewVegasでは、街の中心に近づくに連れてパートが追加されていったらしい。
・それぞれをコントロール
RedDeadRedemptionでは、戦闘かどうかと、馬に乗っているかどうか、といったのを個別に扱っていた。
Warning!
開発チームが小さい場合はそういった知識がない場合がある。
この時も説明してやってもらうことは可能かもしれないが、できるだけ簡潔に説明できた方がいいし、
QAにもちゃんと音楽がどうなっているのが正しいのか伝える必要がある。
フェードイン、アウトの技術
------------------------------
フェードインは通常短いほうが良い。0.5-1.5秒くらいが普通。
フェードアウトは逆に長いほうが気づかれにくい。3-5秒が普通だ。
シンクロしないレイヤー
----------------------
HaloでMartyO'Donnellは、レイヤーの一つをリズムのみ、もう片方をアンビエントのみで構成することで
それぞれを再生した時や一緒に再生した時で大きな変化があるように作曲していた。
縦の遷移の作曲
-----------------
無音が使えることを忘れないこと。無音を作るというと仕事をしていないように思うかもしれないが、
無音からの変化こそがより大きなフィードバックとなることもる。
Hitmanの作曲をしたJesperKydはこれがうまい。
あと、レイヤーが変化するからといって時間による曲の変化がおろそかになってはいけない。
ただのフェードイン、アウトでは、曲の持つ時間的なダイナミクスというのをプログラムは生成できない。
レイヤーを使うとしても、それぞれのレイヤーは時間的に発展し、展開していくべきだ。
これをやらないということは、プレイヤーがメタ的な視点に戻ってしまい没入感を損なうということだ。
・クロスフェード
よく使われるが、あまりエレガントとはいえない。
・トランジション
前の音楽を終わらせて、次の音楽を導入するブリッジを作る。
3秒から15秒ほど。長めのほうが、繰り返しも気にならないし音楽的になるので、
長いほうが良い。
・トランジションマトリクス
大きなプロジェクトだと曲数も多く、マトリクスとしてまとめなければいけない場合もある。
もちろん、いくつかは使いまわしたり、あるいはそのまま(クロスフェードが)使えたりするだろうが。
Wwiseなどはこういった指定を細かくできるよういなっている(詳しくは18章で)
トランジションの終わりは常に新しい曲の先頭につながるから楽に繋げられるが、
前の曲の最後(どこになるかわからない)とトランジションの最初を繋ぐのが難しい。
トランジションを音楽に合わせるにはそういうミドルウェアとかが必要だけど、
無い場合はプログラマにやってもらおうと思っても8時間以上はかかるだろう(いやそれじゃ済まねえよ!)
どんなトランジションを作るかは、映画音楽の終わりかたを参考にすると良い。
可能であればちゃんと前の音楽を終わらせてから次の音楽に遷移するべきだ。
クレッシェンドを使って終わらせてしまう方法がよくある。
緊張感の高いものから低いものに移動する際は、デクレッシェンドするよりも、
一度緊張感を高めきって終わらせてから低い方に移行するほうが良い。
全部の場合に対応するのは大変かもしれないが、以下の注意にしたがってできるだけシームレスなゲーム音楽をつくろう。
トランジションの例
----------------------
TIP:トランジションのバリエーションは多い方がいい。
例えばCombatAからAmbientAに行くときは何度もあるわけなので、少しはバリエーションがあったほうがいい。
作るのはそこまで大した手間ではないが、プレイヤーの体験には大きなインパクトがある。
MusicGameはいわゆる音楽ゲーム、だけじゃなく、音楽をゲームメカニクスにからめて使うゲームすべてを指すものとして使う。
パラッパラッパー(1996)、ダンスダンスレボリューション、サンバデアミーゴ、ビブリボン、FreQuency、Rez(2001)などが
音楽ゲームの可能性を開拓してきた。
GuitarHero(2005)、RockBand(2007)、DanceCentral(2010)などがヒットした。
MystやFallout3などは部分的に音楽が必要なパズルを用意していた。
・BeatMatching
ActivisionはMIDIノートトラッキングを作るためのツールがあるらしい……
・PerformanceSimulatiojn
音ゲー。
・MusicMixing
FreQuencyはHarmonixの初期のゲーム?
六角形の内部を回りながらパートを増やしていく感じだったが、
今演奏して増やしているのが何の音なのかわかりにくすぎてひどい感じだ。。
MadMaestro!は指揮でテンポと音量を変化させているが、無意味にそれらを変化させてると、
音楽としてきもちわるいばっかりだ。。
DJ Heroは音ゲーとして面白そう。押しっぱなしという音とのインタラクションもありか。
BitTripとかRaymanとかRezとかChild of Edenとか、ここまで来ると逆に普通に知ってる。。
◆◆◆◆Part3◆◆◆◆
Microsoft Russian Square Plus! Edition - Spin Cycle , Bubble Matter - YouTube https://www.youtube.com/watch?v=KADDulPn5EI
これは知らなかったなぁ。
No One Lives ForeverってゲームでDirectMusicが使われたらしいが、どう使われてるのかわからん。。
イベントシーンなら別に必要なくね?
かのBrian Schmidt氏がサウンドデザインされたという1989年製のピンボール、やばい。。
https://www.youtube.com/watch?v=l039juNHkyg
TomClancy's EndWar
PSO2並みのシステム持っているらしいぞ!
RTSだからさすがにか。すごいな。セルベース音楽展開(Cell-based music deployment)。
音楽のプールが階層的になっていて、それがゲーム的にも違う階層のパラメータと紐付いているというのは非常に合理的。
大きなプールはシナリオ進行、局所的なプールは戦況、パーカッションは歩兵の音?など。
ミドルウェアの章。アタリマエのことが多いけど。
Wwise、やっぱりループ後のリバーブテイルをループ前に持ってくる処理があるらしい(セグメントごとに設定可能)。
最後。カスタムソリューションを作る。
音楽からのイベントやフィードバックといった昨日は普通のエンジンには無い。
DisasterPieceのインタビュー発見。
The Floor is JellyとCannon Brawlはチェックしてみよう。
PART4は完全にコンポーザー向けの話(DAWとかレコーディングとか)なのと、
PART5はビジネスの話(どうやって仕事を取ってくるか)だったので読んでません。