SSブログ

真のステレオ感を演出するには!? [サウンド解析]

DSP技術が向上するにしたがって、音世界の劇的な変貌が如実に現れたエフェクトは、おそらくEQ(フィルター含)、リバーブが代表的な例として挙げられると思います。

PCMシンセが主流の頃というのは、エフェクト部が可聴範囲の帯域をまんべんなく処理して出力できるというのは少なく、マルチエフェクターのさきがけとなったYAMAHA SPX90でもエフェクト部は12kHz程度。エイリアスノイズ回避のLPF処理などを考慮すれば実際にはもっと低い帯域から減衰していたことでしょう。

このようなデジタル・エフェクトが高音質になるにしたがって、シンセにもようやくその当時のデジタル・シンセに「レゾナンス」が付いたりして、ブースト方向による処理も可能になり始め、フィルターによる音色変化があらためてクローズアップされることとなり、Lo-Fiブームやフィルターの動的な変化による音世界の構築、さらにはシンセのアナログ・サウンド回帰という変遷があって、DSP処理能力がさらに向上して、コンボリューション(インパルス・レスポンス)技術によるEQやリバーブという流れになっております。

ハードウェア・シンセであろうともCPUは用いていたもので、KORGの01Wは私の記憶が正しければ「V50」(YAMAHAのシンセじゃありませんよ)というチップ、SY77/99はモトローラ社製のCPUを使っていたと記憶しております。

発音原理はもとより、オーディオ信号特性までプログラムして、その高度な処理をストレスなく発音させる信頼度が増せば、なにもハードウェアではなくてもよくなり、現在ではパソコンベースによるソフトウェア・シンセサイザーがハードウェア・シンセを凌駕しております。Native Instruments社のReaktorなどはまさに典型的なソフトで、発音原理はもちろん、オーディオ特性までプログラミングや自由なパッチが可能となれば、もはや電気回路に詳しければ、それ相応のシンセの音を再現できるに相応しい時代になっています。

左近治が思うところのハード・シンセの売りは、鍵盤のタッチとその他のパラメータの操作性。ここを重視してくれなければハードとしての魅力は希薄になってしまうと思っているのです。

ただ、こうしたDSPやCPUの爆発的な処理能力向上によってもたらされるメリットとは裏腹に、エフェクトのキャラクターに頼った音の志向性になってしまいがちで、使用者はそれを安易に使ってしまうような流れになってしまったのも確かで、ステレオ感を演出されたエフェクトが一緒に鳴っている音だから、その音のエフェクトをカットできない勇気が試されたりと、または、安易なエフェクト選びを誘発してしまった感も否めません。

バイノーラル録音は立体音響を左右の信号だけで実現させようとする録音技術で、アーヘナーコプフに代表されるようなダミーヘッドのマイクを用いて録音するわけですが、マネキンの首をそのまま使ったようなフォルムには人間の肉感や鼻腔、咽頭、耳腔など物理的な構造まで似せているわけですが、とりあえず重要なのは両耳に埋め込まれたマイクの距離。

人間の内耳は大体15~20センチ以内の距離の隔たりがあるわけですが、たかがこの程度の距離でも左右の違いを判別しているのは、同じ音を両耳で聴いた時の僅かな遅延や、音量の大きさの違い(位相が違う)などを瞬時に判断しているというわけです。

ミキサーにある信号を入力して、左右どちらかにパンを振ると振り加減によって左右の音量差が変わるため方向感がより顕著になるわけですが、物理的に音を発する音源を左右いずれかの方向に僅かに移動させたものとは似て非なるものなのです。ミキサー上でパンを振っただけでは実際の物理的な移動とは左右の各耳が捕らえている音の僅かな違いまで自動的にパンニング処理をしてくれているわけではないからです。

じゃあ、内耳の距離を見当付けて、その距離分のディレイを与えて物理的な遅延やまたは位相をずらしただけでも実際の物理的なものとは違います。

距離が長い方は、よほどの気圧差や特殊な空間でない限り、その距離の分だけ空気の分子を多く通過してきているためロスした周波数(だいたい高周波帯)が減衰したりします。地平線近くの太陽が赤っぽく見えるのは、青の方の高い周波数がロスしてしまったための効果と同じです。

さらに、音は温度によって速さが変わりますが、空調の微妙な風やその周囲の温度分布によっても微妙に音の伝播は変化していて、温度が低い時に伝播する音の方が耳に付きやすい(人間の耳の周波数特性も加わる)、温度が高いと音が薄っぺらくなりがちです。

音は温度が低い方が耳に付きやすいため、寒い夜などは格好のリスニング・タイムになるわけです(笑)。まあ、空調や部屋やその状況の温度層(分布)でも音の伝播具合が変わるので、耳はもとよりマイクの収音も如実にそのような空気感をとらえているのです。

ミキサー上でパンを振っただけでは音量差を作っているだけなので、物理的な距離感は演出されません。もちろんやみくもに遅延を与えてしまっては位相が合わず相殺してしまう周波数も出てきます。ただ、実際の物理的な音像の配置は、片側のチャンネルの音量が少なくとも、そちら側に反射音が多くなる場所などのケースも考えられ、残響成分が耳に残ると以外と耳につきやすく、且つ原音を増強したり相殺したりして、もう一方のパンをシフトさせた側と明らかに音が変わるケースは実際にありふれたシーンなのです。

それらの細かい様々な事象を大きくとらえて、通常それは「雰囲気」としてマイク位置のセッティングを試行錯誤してミックスしているわけです。

エレクトリック楽器が多い昨今、マイクを通さずにそのまま入力されるソースが多い中で、ミックスに気を付けないと楽器の配置感はイメージできても、距離感を演出できずに音像の距離感がほとんど同じようになってしまったり(団子状)、上下感(立体感)を作ることが重要と思われます。特に、DAWが浸透してきた現在では簡単にミックス作業に入れるために、こういうことに直面してしまうケースは多いと思います。

マイクで収音するタイプの音源や楽器というのは、その収音(マイク)によって雰囲気が演出されているために、それらが与えるエッセンスが重要だと思われ、すなわち、マイクの重要性があらためて実感できるのです。

ただ、サンプリング素材のマイク収音によるソースも、バイオリンだからと言ってどのメーカーやどのサンプルライブラリでも収音時のマイクの距離が同じというわけではありません。マイクの持つ周波数特性もありますし。

私が以前、Quincy Jonesの「Little Karen」という曲がミキシングの手本という風に語ったのは、アンサンブルの配置はもちろん楽器の奥行きなどが絶妙に計算されたミキシングになっているので、私にとっては本当にいいお手本なのであります。

着うたをやっていると殆どが打ち込みのため、あらためてミキシングの重要性を認識してしまうのでありますな。