マルチチャンネルのインタラクティブライブパフォーマンスをした話+おまけ

 無茶は自分の体力と相談してね。
 ただの戒めです。Zutq/ラングドシャPです。

 先日、大学でライブパフォーマンスをする機会があり、我ながらそれなりに狂ったことをした自覚があるので、備忘録的な感じでメモを片手に書き込んでおります。

本番当日のパフォーマンスはこちら(画面右にいる帽子被っている人です)

事の発端

誘われた

 雑な導入ですが、昨年も同じイベントでパフォーマンスを行ったのですが、その際に友人に来年一緒にやろう的な事を言われ二つ返事で了承したのを記憶してます。
 それから色々あって、使う曲のジャンル、パフォーマンスの方向性を決めていくことになります。
 細かいことは端折るとして私の担当はマルチチャンネルの音源配置と制御、音声に合わせた映像演出のプログラム作成でした。

作り始め

 なんとなく昨年末頃から曲のイメージや方向性について時々話していて、実際の制作に入ります。
 大学で部屋借りて友人が曲を作ってるのを聞きながらイメージを固めていきます。
 さぁ、楽しい制作の始まりです。

制作ターン 

ざっくりテーマ

 初期は音で空間の支配したいよね的な事を話していたと思います。
 それに対して自分が出来ることとして映像をどう表現するかでした。まだマルチチャンネル使えることが確定してなかったので。
 それで曲調について考えてる中で前半はシンプルで変化が少なめに、後半は思いっきり変化をするようにしたいというアイデアが一致。まずは前半パートを作ろうという話に。

前半パート

 ビートに合わせた画像のスライドショーと音量に合わせたオブジェクトがあれば面白いかなと組み合わせたのを作りました。
 正直、ここは悩まずにほぼ作りきれたのであまり書くことがないですが、   一つ発見としてMaxを使って画像サイズを縮小した上で配置を変えるということをするのに今まで使う機会が少なかったjit.matrixのdimが大活躍しました。
 それと、タイトルロゴを出すというところからのエフェクトは今後公開される動画の方を元に書き出そうとは思うんですが、Vizzieを使って特殊な形へと加工を行っています。

後半パート

 悩むところしかなかった。

 悩んでしまったポイントとして
1 前半と曲調が違うこと
2. それに合わせて演出を大きく変えていきたい
3.  作り始めの段階ではまだ曲として作り上げられてない部分があった
 というわけで実際、このパートについては前半のシンプルに変化するのとは真逆の忙しく動くことを基本にしようと決めます。

 ここまでが大体7月頃までの出来事です。
 この時点ではAbleton Live上でMax for Liveを使っての演出を行うことを一切考えずMax単体で稼働することにしてました。
 昨年までの経験でDAWも動かす負荷を考えない方が楽という経験からですが、これが後々地獄を見るのはまた別の話…

7月以降

音声周り

 さあ、いろいろ事情が変わっていきます。
 この時期より会場内に6chのスピーカーを配置して演出を行うことが可能という話が出てきて、面白そうなので挑戦することに。

 その後は後半パートをアイデアをまとめつつ、細々とMaxでの映像パッチを制作しては貯めて置く日々。
 8月に別件でのパフォーマンスの収録があり、その経験でMaxでの映像演出に違う方向からアプローチができることが判明して映像システムをちまちまと作り始めます。
 既にイベントまで1か月を切っており、若干焦りの中で後半パートを作っておりました。

 同時進行でMaxを使ったマルチチャンネルでのパフォーマンス方法を学び実際に使うということにも挑戦していきます。IrcamのSpat強い。
 と、オーディオ周りについて一番大変だった部分として、Ableton Liveに頼らないシステムにしてしまったツケとして、Max上にオーディオのパラメータを並べ、それぞれの音量調整と360度のパンニングをしなればならないこと。
 つまり自分で仕様を設計してDAWを作ってるようなもの。
 まだこの段階では映像と音声は同一PCで出力することを前提としており、Maxで使えるSpatでは別ウインドウが立ち上がったりという映像の出力に悪影響を与える可能性が考えられました。
 おまけにSpat自体はチャンネルインプットがモノラルで増えていくと、ステレオ素材の場合パンニングがLRのそれぞれ調整しなきゃいけなくて大変。
 というわけで。

 自分でSpatに入力できて映像の邪魔をしない360度パンナー作りました。
 ついでにステレオ素材の操作やワイド感(左右の広がり)も操作できるように。

 見せた友人やMax使える人には狂気と言われましたが、本当の地獄と狂気はこれから。

さあ映像だ

 一番の地獄がこちら。
 実質後半パートを作り始めたのが9月に入ってから。それはイベント1か月前という中々に大変な時期。
 それでも作りためていた映像のパッチを組み合わせては削ってを繰り返し、ある程度の精度で映像が切り替わり、曲の世界観に合った物が出来ていって気づきました。

 負荷大きすぎる?

 ある意味想定内にして致命的出来事ですが、私の手持ちのMacbook Pro 13inchの弱いグラフィック能力だとHDでも10fpsも出せない。FullHDなんてもう大変なことに。
 しかも音声止めてもあまり変わらないと。
 最適化させる前に色々考えて、たどり着いたのが映像と音声のPCを分けるということ。 
 
 PCはどうせ大学で借りれるから別にいいやと思ったんですよ。
 問題はその二台をどうやって連携するか。

 というわけで色々試してみました。とりあえずIF同士でオーディオ信号使ってみたり、Midiケーブル繋いだりと。
 結局のところ解決したのはMaxの中でjitterのデータを送りあえるオブジェクトがあったこと。
 jit.net.sendがなければ辛かった。

 それを使いパッチを分割、それぞれに独立稼働と連携するようにシステムを作り上げつつ最適化を行います。

最終調整

 映像システムをとことん最適化した結果、映像のみなら手持ちのMacbook Pro 13inchでもある程度安定稼働(FullHDで24FPS稼働)が可能に。
 正直こんな最適化はもうやりたくないです。

 それと並行して音声でもリアルタイムでの要素としてグラニュラーシンセシスを実装し、外部入力やパンがオートで様々な動きが可能に。
 この時最適化とか繰り返す内に、「もしかしてこれAbleton Live使用を前提にすればよかった?」と何度も後悔しつつ後戻りが出来ないところまで来ていて半泣きで調整してました。
 それでもデモ映像を制作したらなんか良い感じに。

 これで完成! とはならず

 このシステムというか、今回のパフォーマンスの最大の胃が痛いポイント。

本番会場で音を鳴らさないと全てどうなっているのかわからない。

 そう。会場の特性も何もかも初めての挑戦。動いたところで意図した鳴り方をするかなんて通常のステレオでのパフォーマンス以上にわからない。
 というわけでリハでギリギリの調整を行っていました。
 PCで再生する→観客席に走る→PCに戻ってミキサーの調整 の無限ループ。
 おまけに細々と仕様変更が入りトラブルが発生したりと泣きたいってなりながら走り回ってました。
 私はこの時イベントの裏方としても走り回っていてトラブルの解決に動いていたので二重苦という状態で精神的にも少しやられていましたが、それ以上に。

臨場感というか、迫力が桁違い

 これがすごいんですよ(語彙力の不足)

 実際、通常ステレオのスピーカーの方が口径も大きく音は大きいはずなんですが、360度で音が包まれるという状態で、色んな音が動いているという体験が新鮮で新たな音楽表現の方法を掴み、とても面白いと思いました。
 正直、ちゃんとこれを言語化できるほどの経験が無いので細かいところは省略しますが、これ聞いたあとの普通の2chは物足りなく感じてしまうんですよね。

 実際会場で聞いた方々からは臨場感や表現がとてもよかったということを伝えてくれたのもあり、やってよかったなと。
 裏方のトラブルも本番には解決して全部問題なく動いたので。

最後に

 というわけで完全なる備忘録でございました。
 チラシの裏に殴り書きで残しているようなものでしたが、今考えるとこれ

 5人くらいのグループでやる内容だよな?

 と思うのは気のせいということにしておきましょう。
 今回、新しい知見と方向性というものが見え、今後の活動に活かされていくといいなぁと考えております。

 では。

 p.s.
 その後打ち上げで倒れたのは内緒。

この記事が気に入ったらサポートをしてみませんか?