miur-us

記事一覧(30)

mixにおける音処理は、二種類に分けられる!

英語だとprocessing“プロセッシング”と言われますが、レコーディングされた各トラックはmixにおいて手が加えられ、何らかの音処理が施されます。どんなに生音に忠実に!と言えども、録った音そのままというのは、一部の状況を除いて、ほぼないことです。そんな音処理は大きく分けて、次の二種類に大別できます。修繕、調整拡張、脚色前者は、音を整える、元の音を尊重しつつ修正、引き算なのに対して後者は、音を大きくする、太くする、派手にする、足し算です。どちらが良いという訳でなく、そのどちらも重要で、どちらに比重を置くかは、音楽スタイル、ジャンル、楽曲のコンテキストによってことなります。また同じエフェクターであっても、使い方によって、このどちらにもなることもあります。これについては後述を参考。修繕、調整まずはレコーディング時点で、適切な録音になるようにすべきですが、どうしても一部の周波数が飛び出てしまって、こもっていたり、耳に痛かったりします。そういう部分はEQで削ります。また演奏の都合上、楽器の性質上、音の強弱が極端にあるとオーディオ上問題があるので、コンプレッサーで、強弱を抑えます。これらは全て、音をなるべく変えないように、在るべき音へと軌道修正することが目的であり、消極的な音加工です。"消極的"というのはしなくて済むならしない方が良い、という意味です。拡張、脚色それに反して、こちらは積極的な音加工を目的にしています。オーディオは原理主義的に録音される音とリスナーが聞いている音がイコールで在るべきですが、現実には難しく、ならカッコよく加工した方が良くね?というのが、ポップミュージックにおける積極的音加工になります。なにもエフェクター使用だけでなく、同じ楽器、ボーカルを複数回録音し、それを重ねることで音に厚みを出す(ダブルトラッキング)なんかも、拡張として音創りになります。生ドラムにサンプルを同期させて、厚みを出す、というのも拡張テクニックのひとつです。リバーブやディレイなどの空間系エフェクトは、人工的に残響を作り出すことで、空間感、広がり、距離感を生み出します。サチュレーション系エフェクターは正に音を変えることをそのこと自体を目的としたエフェクターであり、そのまま色を加える、add sounds colorという風に言います。上記に書いた、同じエフェクターでも使い方で方向性が変わるというのは、EQで低音を持ち上げて、重心を低くしたり、ハイを持ち上げて、煌びやかにしたり、アナログ系コンプで音が変わるほど過剰に潰したり・・・ということです。つまりEQは周波数バランスを変えることで、音を修正したり、派手にしたり、ということができる凄いエフェクターなんです。なおリバーブはマルチ録音における音マイクの弊害、つまり残響音がない、というものを補うものである、という解釈もできるので、厳密な場合分けが難しい部分もあるかもしれません。使い分けるには先に書いたように、状況や楽器、アンサンブルの中での役割、フレーズによって、取るべき、処理方法は変わります。しかし基本的には、修繕、調整→拡張、脚色という優先順位はあると思います。順序を守りつつ、拡張後にmix全体のとの兼ね合いから、調整をやり直す、ということもあると思います。注意なのは、修繕、調整をやる必要が無いならやらないという事です。全くEQなどが必要ない、という場面はそうそう無いはずですが、とにかく必要な分だけやる、という事です。削り過ぎれば音は薄くなります。反対に拡張、脚色はある意味際限なく出来てしまいます。やり過ぎは過剰演出になっていしまうので、注意が必要です。まとめ!というわけで、mixにおける音処理の二大分類をやってみました。mix中においては、今やっている処理が果たしてこのどちらなのか?なんのためにやっているのかを確認する際の指標になるような気がします。何にせよ、意味のないエフェクターは挿すべきではないし、意味があるならどんどんやれ!という精神が大事だと思います。

"DTM"の終焉について。本当に自宅が“スタジオ”になった日。

"DTM"という言葉は、もはや死語かもしれません。というよりは“打ち込み系”という区別をする必要すらない時代なのかもしれません。コンピュータと音楽制作をめぐる、現在の状況について考えてみました。むしろコンピュータでの音楽制作が主流。ある意味では、もう"DTM"というものは存在し得ないのかもしれません。 それはコンピュータを使った音楽制作というものが、もはや主流であり、規模などを除けば、理論上プロとアマの差というものが、ほぼなくなったからです。(現実的にはありますが。)もともと"DTM"とは家庭向けのパソコンを利用した、ホビー(趣味)です。早い段階(80年代)から一部のプロは、コンピュータによる音楽制作に目をつけていました。しかし当時は発展途上の技術であり、それがここ十年くらいで一気に変わったのだと思います。シンセサイザー、あるいはシーケンサーなどの機械をつかった音楽とは、区別して考えています。ここでは、あくまでコンピュータ本体を使用しての音楽製作を指します。楽器、あるいはそれを操るミュージシャンを主体に音楽はもちろん依然としてありますし、ふたつのスタイルが混在した音楽も存在しています。その境目は、年々薄くなっているように思いますし、DTMスタイルが生んだ"EDM"というジャンルが(EDMがジャンルなのかについては一考の余地アリと自分は考えていますが)今やメインストリームになっているともいえなくないです。別に悲劇的なことではなくて、わざわざ"DTM"として区別する必要がなくなってしまった、と。でもそれは時代の流れによる、自然な現象であると捉えるべきだと思います。例えば初音ミクがDTMを殺した、という説もありますが、果たしてそうでしょうか?Youtubeでこのような動画を見つけました。 

アコギで考える、ミックスごとの処理の違い。

Mixはクリエイティヴな作業であり、決まった正解はありません。必ず上手くいくセッティングはありません。しかし、なぜ“必ず上手くいく方法”がないのかは感覚的なものではなくて、論理的に説明できます。Mix"ミックス"は割り算。同じ楽器であっても、他の楽器との関わり合いでその役割が異なってくるので、処理も変わる。[ 目次 ]・ミックスに方程式はない?・音楽における"状況"の違い・それぞれの処理の方向性・全て併せて"1"になるようにミックスに方程式はない?よくMIXにおいて、こうすれば上手くいくという公式のようなものはない、と言われます。 状況によって、曲、音楽のスタイル、ジャンルによってもやり方が変わる、ということです。つまり例えば、じゃあベースをこのくらい、ギターをこのぐらいにして、ボーカルにコンプレッサーをこれくらいかけて、あの有名なリヴァーブをかければ全てがうまくいく!、とは言えないという事です。 具体的な工程を数量的に表すことができないというのが、ミックスを理解する上で大きな壁の1つだと思います。  最終的には自分がいいと思える音にすればいいのですが、そうは言っても・・・というのが悩ましい部分ですね。  独りよがりな音になってはだめな訳で。ではアコースティック・ギターを例にミックスの作業はなぜ定量化できないのか、なぜ状況によって音創りが変化するのか?ということについて考えてみたいと思います。

Mixにおける“距離感”について

何もしなければ、単に音量バランスを調整しただけでは、全ての楽器が横並びしているような平面的サウンドになってしまいます。音の大きさ、リヴァーブ音、音質、トランジェントこの4つの要素が絡み合うことでMix上、オーディオにおける距離感、空間感が決定する。[ 目次 ]・音楽との距離感・距離感の三つの要因・第四の刺客、"Transient"・現代のレコーディングの都合・オーディオは平面的・距離感を生み出そう!音楽との距離感。ステレオオーディオというものは、二本のスピーカを用いて音響空間を再現する技術です。左、真ん中、右という左右の広がりのうち、楽器をどこに配置するか?ということ(Panning)はMix上に置いて基本的かつ重要な作業です。しかし、そうした単純な左右だけでなく“奥行き”というものもMIXにおける空間感を構築する重要な要素です。ではMixにおける距離感とはどういうことなのでしょうか?どのように生み出されるのでしょうか?距離感の三つの要因。音の大きさリバーブ、残響音音の周波数バランス距離感を表す、最も大きな要因は“音の大きさ”です。単純に音の大きいものは近くに聞こえますし、また小さい音は遠くに聞こえます。これが大原則ですが、当然楽器によってその音の大きさは異なります。Mixにおいては電気的な操作で自由に変えられてしまいますが、生楽器に関してはその楽器固有の音の大きさがあるということです。例えばギターの思い切り掻き鳴らした音と、生ピアノの普通に弾いた音ではどちらが大きいでしょうか?バイオリンをソロで思いっきり弾いた音とオーケストラ全体が小さく演奏した音ではどうでしょうか?重要になってくるのは、楽器それぞれの特性を見極めることだと思います。そしてMixの場合では基本的には大事な楽器ほどバランスが大きくなりえますのでそういう面でも音楽的な判断が大切です。次に大事なのはリバーブ、残響音の大きさ(その音とリバーブ音のバランス)です。 音に対してリバーブの割合が大きければ
それだけリスナーに対する距離感が増します。少なければそれだけ近くにいるのだろう、ということになります。そして音色です。
距離が離れれば、それだけ空気の層を通るわけで音質変化が発生します。つまり、これらをまとめると・・・音がよりはっきりしていて、音量が大きく、リバーブが少なければ近くに音が丸みを帯びていて、音量が小さく、リバーブが多ければ遠くに(細かい音量差については、その楽器そのものの音量による。)ということになります。生楽器の処理については以上のように言えると思います。以上の3つの要因が、音の距離感というものを人間に感じさせる基本的なものです。第四の刺客。"Transient"しかしそれ以外の要因もあります。それはTransient(トランジェント)と言うものです。Transientと言うのは現状、日本語で適切な訳語が無いので、説明が難しいですが、音の輪郭において重要な役割を果たす音成分です。それは音の鳴る瞬間、エンベロープで言えばアタックの部分にあたりますが、音の出るその時に瞬間的に発せられる一種の瞬間的ノイズとでも言いましょうか。 これはつまりは実際の音程にかかわる“実音”とは切り離された装飾的な要素とも言えますが、しかし重要です。具体的にはギターをピックで引いた時になる、カツッ!という音や ピアノのハンマーが当たった瞬間のギャンっという音、スネアの皮とスティッチが当たった瞬間のバチン、 という皮鳴りのような非常に瞬間的な音なのです。 音における輪郭を司る部分でコンマ何秒という長さですが、音の認識に、聞こえ方に大きな影響与えるわけです。そして、この部分が多いか少ないかで、距離感が大きく変わるということです。現在のデジタルレコーディングにおいてはTransientのような非常に小さく瞬間的な音も、逃すことなくクリアに録音できますので、そういった意味では確かにより生音に近いわけです。しかし現実的なMixにおいては、それが逆に距離感に不利益をもたらすこともあります。(場合によっては耳障りな音になったりします。) つまりどういうことかと言うとTransientが多すぎると、 たとえリバーブが多く、音量が小さくしても、 近くで鳴っているような聴覚上の心理効果をもたらしてししまうということです。 
Transientは小さく瞬間的な音になりますので、距離が離れるだけ実音以上に飛散してしまいます。なのでミックス上、遠くになっているのにもかかわらず、そうしたものが多く聞こえてしまうと
不自然に聞こえてしまうわけです。 そこで場合によっては音の処理としてTransientを抑えたほうがよいこともあります。逆により近くで音が鳴っているようにしたい場合にはTransient強調すると
コンプレッサーを強くかける場合よりも効果的な場合があります。 (Transientを操作できるエフェクター類はそのように使います。)現代のレコーディングの都合。距離が離れていると言う事はそれだけ空気の層を多く通っていると言うことであり、 音の楽器を本来の音とはある意味では変化して聞こえてくるわけです。 それはTransientだけではなく、その生楽器の音色としてもという事です。しかし生楽器とは本来そうした自然な“距離”というものを考慮したうえで、離れた距離で聞いたときに、その部屋全体残響、音色変化が複合的に絡み合い、それらを総合的に聴いたときに
よく聞こえるように設計されているものであり、そうあるべきものなので、Mixの操作も基本的にはそれに沿うべきでしょうね。 (生楽器中心の音楽は特に)なぜデジタルでクリアに取れて生音に近いはずなのに、問題が生じるのか? ということについては
マイクの性能の問題と録り方が引き起こすのだと思います。 通常現代の多くのレコーディングではオンマイクでの録音が中心になります。 
ギターのサウンドホールに耳をあてて、聞く人はいませんしうるさいだけです。 しかし現実にはレコーディングの都合上の楽器にマイクを近づけて収録すると言う事が多いわけです。(腕利きのエンジニアはオフマイクで録った音と組み合わせることで自然なアンビエントを得たりするようです。)マイクで音を取ることと耳で聴く、とはもちろん違いますがマルチトラックレコーディングというものは、生楽器による音楽本来の距離感を損ねてしまう恐れがあるので注意する必要があるのです。 オーディオは平面的であるそしてそもそもオーディオという技術自体に問題がないわけではありません。特にステレオオーディオは二本のスピーカしかないし、そしてスピーカというもの再生能力は物理的に限界があります。あくまでオーディオとしての音しか出せないわけです。オーディオはオーディオとしての特性と限界があるのでそれを見極め、利用する必要があるということだと思います。録った音をただ音量だけ調節し、左右に並べたとしても平坦に感じてしまうのはこのことが要因です。例え、いいマイクで録ったとしてもです。遠近法は人間の錯覚を利用して、平面上(紙、キャンバス等)に三次元空間を作り出す技術だと思いますが、(絵には詳しくないので間違ってたらすいません。)オーディオにおいてもそれに近い、人間の錯覚を利用するような工夫が必要だということです。Transientもそうですが、コンプを使って、前後の位置を固定するというテクニックもあります。そこらへんについてはコチラの記事で触れています。

音楽制作におけるサウンドが決まるポイントとサウンドつくり。

音楽制作はオーディオに関して言えば、レコーディング、ミックス、マスタリングという三つの工程を経て、完成します。やり直す、ということであれば何度でも出来ますが、基本的にはその工程ごとに出来ることは減っていく、という話です。三つのチェックポイント。オーディオにおける音の変わるポイント、決まるポイントというのは、3つあります。どれも録音するポイントなのですが ・個別のトラック録音 ・ミックスダウン時における、ステレオオーディオへの録音・最終的なマスター へ向けてのマスタリングとなります。3段階あるわけですが、これらのポイントにおいて、基本的な音、サウンドの性質が決まります。
まぁクリアな音なのか、太い音なのか、ジャキジャキしているのか、柔らかい音なのか、みたいなことですね。 各ポイントを通過する毎にだんだん動かせる、変更できる幅というのは狭まっていきますので、(というかマスタリングにおいてはそれを過ぎれば完成ですし)
音を形作る場合は、早れば早い方がより自分の狙った方向を動かせると言うことになります。 少し抽象的な話になりますが
その方向性というものは、右左どちらに進むか?という風にいえます。
そして右か左かを選んだ後に、例えばじゃあ右に行ったとしてその右に行ったものを
また左の道に帰るって言う事はできないと言うことです。特にトラック録音をした後には、もちろんいろいろなエフェクター、プラグインを使って音を変える、整えていくという事は、もちろん誰しもすることです。
しかしそこで変更できる範囲というのはあくまで今歩いている道の範囲の中であって
根本的な変更、右から左へ、というような方向転換は行えないということなのです。 
掛け録りの是非。マイクだって・・・。録音時にはなるべくエフェクターをかけないほうがよい、出来る限り忠実に!というようなことは確かに正論のように思えますし、掛け録りしてしまうと後で戻せないというのは確かにそうです。しかしその曲において、サウンドの方向性が定まっているのならば(ほんとはレコーディングのときに決まってないとダメですけど)その時点で積極的に音の方向性を決定付けるような調整するべき!と言うことになります。 
またこういう風に言うこともできるでしょう。録音した後にマイクを取り替えることができない。それと同じことだと思います。掛けようが掛けまいがそうしたほうが良いことは、出来るだけ早いうちにした方がいいです。いずれにせよ決断しなければならないわけで。つまりどのマイク選ぶかどのようにマイクを置くか次はどのくらい離すか、プリアンプは何を使うか?ということも当然、音作りに含まれてくるわけですので。決断することを恐れてはいけないわけです。
録音の時点で何かイコライザーやコンプをかける必要があると感じるのであれば掛けてしまえばいいんですよ。そしてその音がよければよい!ということだと思います。そのような判断はまさに音楽的判断であり、その楽曲をどう解釈するか?ということになるわけなのです。 そういう意味ではまずきちんと曲が出来上がっており、アレンジがほぼ定まっているということが何より重要なのかもしれません。なお音が変わるのを防ぐには出来る限りハイビットでの録音が好ましいです。最低でも24bitで、可能であれば32bit(float)がいいです。アナログ録音にしても書き出しにしても。それについてはまた違う記事で書く予定です。

リファンレンスとしてのデモ音源。

どんな形であれ、自分の作ったものをちゃんと残しておこう。miur-usとしてのファーストEPを製作中ですがデモの大切さをすごく痛感したのでちょっと書きます。曲は成長するものだと思います。いきなりほぼ完成形で頭に浮かぶパターンもありますが、それでも曲と真摯に向かい合わないといつまで経っても完成形にはなってくれません。その成長の記録として、各段階のデモをきちんと管理した方がいいな!ということです。音楽におけるデモとは?デモというのは作った曲をとりあえず録音して形あるものにしておく要は音楽的なメモなわけですが、いくつか段階があると思います。・本当に思いついた瞬間にiPhoneのガレバンで録る。これは本当にメモですね。書きなぐりです。いいフレーズ、曲思いついた!ってなっても、忘れてしまったら元も子もないのです。何らかの形で、残しておくことが重要になります。録音自体が不可能な状況でも、歌詞だけでもコード進行だけでも何かをとにかく残すことが大事ですね。・ある程度、アレンジがまとまった状態でのデモ。曲としてはきちんと出来上がっており、アレンジがまとまった状態で始まりから終わりまでを録ったもの。これになると、ようやく人に聞かせられる形になります。と同時に出発点になります。しかし場合によってはここから大きく変化する場合もありうるわけで。なのであまり縛られる必要も無いですがとにかくひとつの基準になるわけです。・最終的なデモ、プリプロとしての。プリプロダクションなので本番直前としてのデモですね。でもDAW中心の場合は、本番と最終的なデモの境目は薄いかもしれません。本番と同じアレンジであり最終形態の前段階です。客観性。リファレンス。音楽制作のリファレンスというのは、ミックスにおいて比較基準として他アーティストの音源を用意して(基本的に同ジャンルの、あるいは目標としての)聞き比べて、各種バランスを整えるための参考にするというものです。あるいはエンジニアの人がそのスタジオの音響特性を見極めるのに使ったり。これはあくまでミックス上の比較基準です。サンレコでリファレンスCDは何を使っているかを各エンジニアに聞く、みたいな企画があったのを覚えています。音楽としての閃き。デモを残しておく重要性。リファレンスCDはあくまで、ミックスを構築する上で客観性であったり、ジャンル内のトレンドから著しく足を踏み外さないためのものですが、デモは違います。あくまでその楽曲の出来たときのテンションであったり、フレッシュさを含めてそういう曲として大事な部分が、完成形において失われていないか?という曲の音楽性における純粋な比較対象になります。本番はどうしてもキチッとしたものにしようと慎重になりすぎて、おとなしい演奏になってしまうことがあります。また、そもそもアレンジをデモのヴァージョンから良かれと思って変えてみたものの改めて聞き比べると、デモの方がよくね?となってしまう場合もあります。レコーディング以降はある種、工業的な工程に沿って作業が進められる部分があると思います。しかし音楽としての大事な部分が失われてしまったら意味無いです。オーディオの中に音楽としての閃きというか、英語で言うところの"Vibe"がきちんと封じ込められているかを注意しないといけないなと。録ってる最中、あるいは録り終えて、ミックスの段階で。デモ聞き返すことで正しい道を歩めているか?という基準になるわけです。まとめというわけでデモはちゃんと何らかのオーディオファイルとして残して管理しておくことが大切だなと。世に出すものではないからこそ自分でしっかり残しておかないと消してしまったら永久に戻ってこないわけですからね。