miur-us

記事一覧(32)

"Transient" トランジェントとは何か?基礎知識![ Mix ミックス ]

トランジェントはミックスにおいて大事な要素であり、トランジエント調整を目的とする専用プラグインがいくつも発売されています。しかし、そもそもトランジェントとはなんでしょうか?一般的にその真の重要性はあまり認知されていないようにも思います。本記事ではその意味、基本的なことを明らかにしていきたいと思います。トランジェントとは非常に短い、瞬間的な(ノイズ的)音成分であり音の輪郭として重要な役割を果たす!"アタック"とは違うエンヴェロープ・カーブとはあくまで、音量の時間的変化を表したものであり、エンヴェロープを使って、音色の時間的変化を表現することもありますし、音の特性に表すものですが、根本的にトランジェントとは無関係です。アタックとトランジェントは別のものです!ただし、アタック部分に発生する瞬間的な音成分ではあります。なぜなら、その楽器を弾いて発音の瞬間に発生する一種のノイズとも言えるからです。音の輪郭トランジェントの一番の役割は、音の輪郭です。非常に短い時間で、しかも音程を持つ音ではありませんが、人間の聴覚上においては非常に重要ですし、その楽器の音を特徴付ける要素でもあります。Friedemann Tischmeyer "Internal Mixing" ( www.proworkshops.de ) 136ページより引用。"Transients plays a huge role in defining natural sounds for our ear, for example with a bowed string With layered sounds that have no attack, there are no transients.
The more percussive sound is , the greater the importance of the transients. "トランジェントは私達の聴覚上において、自然なサウンドを知覚する上で非常に重要な役割を果たします。例えば、弓弾きの重ねられた弦楽器のスローアタックによるサウンドにはトランジェントはありません。パーカッシヴな音であるほど、トランジェントの重要性は大きくなります。"(以下略)バイオリンであっても、強く弾けば弦と弓の擦れる音がトランジェントになり得ます。同じ楽器でも、弾き方によって変わる場合もあるということです。わかりやすい例で言えば、エレキギターの実際の音程を持っているのはもちろん弦の振動です。しかし、ピックで弾いた時のカツッという音がトランジエントであり、このカツッという音があってこそ、エレキギターはエレキギターらしい音でいられるわけです。要は楽器は様々な音が組み合わさっており、その1つにトランジエントも含まれます。スネアドラムで言えば、皮とスティックの触れたバチッという音、スネア全体が鳴るボンッ(コンッ)という音、そして裏に張られたバネ、スナッピによるザザッという音。これらが組み合わさって初めてスネアらしい音になっているわけです。ここではバチッという音がトランジェントになります。この音がなければ、スネアの音は締まりのないものになってしまいます。多すぎてもダメさてトランジェントは非常に瞬間的で音量的にも基本的に弱いですが、現代のレコーディング、すなわちデジタルであり、オンマイク(マイクを近くセットする)だと逆にトランジエントが強く、大きく録れすぎてしまう場合があります。これは大きな問題です。つまり、大きすぎると耳に痛いのです。デジタル録音の弱点はここで、逆にアナログ録音がなぜ良いといわれるのかというと、実はアナログテープがトランジェント成分を弱めてくれるから、という説もあります。デジタルはクリアすぎてダメだ!音を鮮明に録ってしまうからダメだ!みたい言説の真相はつまりこういうことで、デジタル技術自体が悪いわけでないということです。つまり、デジタル・ミックスにおいては積極的にトランジェントを調整する必要があり、だからこそトランジェント系プラグインが存在するわけですね。ミックス mixing上での取り扱いというわけで、ミキシングにおいてトランジェントをどう扱うかがミックスのクオリティに実は直結します。これはあまり言われていないことかもしれませんが。特に気をつけなければいけない点が二つあります。ミックスにおける、あるトラックの距離感コンプによる、トランジエントの喪失少ないと音の輪郭がぼやける、多すぎると耳に痛い、ということを基本として、そこに上の二つの問題が加わります。それぞれ内容を確認していきます。< 距離感を左右する。>ミックスにおける距離感はどうやって生み出されるか?については記事を書いています。

mixにおける音処理は、二種類に分けられる!

英語だとprocessing“プロセッシング”と言われますが、レコーディングされた各トラックはmixにおいて手が加えられ、何らかの音処理が施されます。どんなに生音に忠実に!と言えども、録った音そのままというのは、一部の状況を除いて、ほぼないことです。そんな音処理は大きく分けて、次の二種類に大別できます。修繕、調整拡張、脚色前者は、音を整える、元の音を尊重しつつ修正、引き算なのに対して後者は、音を大きくする、太くする、派手にする、足し算です。どちらが良いという訳でなく、そのどちらも重要で、どちらに比重を置くかは、音楽スタイル、ジャンル、楽曲のコンテキストによってことなります。また同じエフェクターであっても、使い方によって、このどちらにもなることもあります。これについては後述を参考。修繕、調整まずはレコーディング時点で、適切な録音になるようにすべきですが、どうしても一部の周波数が飛び出てしまって、こもっていたり、耳に痛かったりします。そういう部分はEQで削ります。また演奏の都合上、楽器の性質上、音の強弱が極端にあるとオーディオ上問題があるので、コンプレッサーで、強弱を抑えます。これらは全て、音をなるべく変えないように、在るべき音へと軌道修正することが目的であり、消極的な音加工です。"消極的"というのはしなくて済むならしない方が良い、という意味です。拡張、脚色それに反して、こちらは積極的な音加工を目的にしています。オーディオは原理主義的に録音される音とリスナーが聞いている音がイコールで在るべきですが、現実には難しく、ならカッコよく加工した方が良くね?というのが、ポップミュージックにおける積極的音加工になります。なにもエフェクター使用だけでなく、同じ楽器、ボーカルを複数回録音し、それを重ねることで音に厚みを出す(ダブルトラッキング)なんかも、拡張として音創りになります。生ドラムにサンプルを同期させて、厚みを出す、というのも拡張テクニックのひとつです。リバーブやディレイなどの空間系エフェクトは、人工的に残響を作り出すことで、空間感、広がり、距離感を生み出します。サチュレーション系エフェクターは正に音を変えることをそのこと自体を目的としたエフェクターであり、そのまま色を加える、add sounds colorという風に言います。上記に書いた、同じエフェクターでも使い方で方向性が変わるというのは、EQで低音を持ち上げて、重心を低くしたり、ハイを持ち上げて、煌びやかにしたり、アナログ系コンプで音が変わるほど過剰に潰したり・・・ということです。つまりEQは周波数バランスを変えることで、音を修正したり、派手にしたり、ということができる凄いエフェクターなんです。なおリバーブはマルチ録音における音マイクの弊害、つまり残響音がない、というものを補うものである、という解釈もできるので、厳密な場合分けが難しい部分もあるかもしれません。使い分けるには先に書いたように、状況や楽器、アンサンブルの中での役割、フレーズによって、取るべき、処理方法は変わります。しかし基本的には、修繕、調整→拡張、脚色という優先順位はあると思います。順序を守りつつ、拡張後にmix全体のとの兼ね合いから、調整をやり直す、ということもあると思います。注意なのは、修繕、調整をやる必要が無いならやらないという事です。全くEQなどが必要ない、という場面はそうそう無いはずですが、とにかく必要な分だけやる、という事です。削り過ぎれば音は薄くなります。反対に拡張、脚色はある意味際限なく出来てしまいます。やり過ぎは過剰演出になっていしまうので、注意が必要です。まとめ!というわけで、mixにおける音処理の二大分類をやってみました。mix中においては、今やっている処理が果たしてこのどちらなのか?なんのためにやっているのかを確認する際の指標になるような気がします。何にせよ、意味のないエフェクターは挿すべきではないし、意味があるならどんどんやれ!という精神が大事だと思います。

"DTM"の終焉について。本当に自宅が“スタジオ”になった日。

"DTM"という言葉は、もはや死語かもしれません。というよりは“打ち込み系”という区別をする必要すらない時代なのかも。コンピュータと音楽制作をめぐる、現在の状況について考えてみました。むしろコンピュータでの音楽制作が主流。ある意味では、もう"DTM"というものは存在し得ないのかもしれません。 それはコンピュータを使った音楽制作というものが、もはや主流であり、規模などを除けば、理論上プロとアマの差というものが、限りなく少なくなったからです。(現実的にはありますが。)もともと"DTM"とは家庭向けのコンピュータを利用した、ホビー(趣味)です。早い段階(80年代)から一部のプロは、コンピュータによる音楽制作に目をつけていました。しかし当時は発展途上の技術であり、それがここ十年くらいで一気に変わったのだと思います。シンセサイザー、あるいはシーケンサーなどの機械をつかった音楽とは、区別して考えています。ここでは、あくまでコンピュータ本体を使用しての音楽製作を指します。楽器、あるいはそれを操るミュージシャンを主体に音楽はもちろん依然としてありますし、ふたつのスタイルが混在した音楽も存在しています。その境目は、年々薄くなっているように思いますし、DTMスタイルが生んだ"EDM"というジャンルが(EDMがジャンルなのかについては一考の余地アリと自分は考えていますが)今やメインストリームになっているともいえなくないです。別に悲劇的なことではなくて、わざわざ"DTM"として区別する必要がなくなってしまった、と。でもそれは時代の流れによる、自然な現象であると捉えるべきだと思います。例えば初音ミクがDTMを殺した、という説もありますが、果たしてそうでしょうか?Youtubeでこのような動画を見つけました。 

アコギで考える、ミックスごとの処理の違い。

Mixはクリエイティヴな作業であり、決まった正解はありません。必ず上手くいくセッティングはありません。しかし、なぜ“必ず上手くいく方法”がないのかは感覚的なものではなくて、論理的に説明できます。Mix"ミックス"は割り算。同じ楽器であっても、他の楽器との関わり合いでその役割が異なってくるので、処理も変わる。[ 目次 ]・ミックスに方程式はない?・音楽における"状況"の違い・それぞれの処理の方向性・全て併せて"1"になるようにミックスに方程式はない?よくMIXにおいて、こうすれば上手くいくという公式のようなものはない、と言われます。状況によって、曲、音楽のスタイル、ジャンルによって、やり方が変わります。つまり例えば、じゃあベースをこのくらい、ギターをこのぐらいにして、ボーカルにコンプレッサーをこれくらいかけて、あの有名なリヴァーブをかければ全てがうまくいく!、とは言えないという事です。 具体的な工程を数量的に表すことができないというのが、ミックスを理解する上で大きな壁の1つだと思います。  最終的には自分がいいと思える音にすればいいのですが、そうは言っても・・・というのが悩ましい部分ですね。  独りよがりな音になってはだめな訳で。ではアコースティック・ギターを例にミックスの作業はなぜ定量化できないのか、なぜ状況によって音創りが変化するのか?ということについて考えてみたいと思います。