アカウント名:
パスワード:
このストーリーのコメントにもいくつかありますが、この手の話題で出てくる「可聴範囲を超えるのスペックは録音・加工時の素材にだけ必要、消費者に配る完成品は可聴範囲をカバーしていればOK」という定説、これって本当に実情にあっているんでしょうか?
音楽の場合、プレイヤー側で加工を行いながら再生することって珍しいことじゃないですよね。
それは「低音強調」「ボーカル強調」「ROCKモード」「CLASSICモード」のようにユーザーの好みで選択する一般的なイコライザーもあれば、ホームシアターのような環境で2chの音源をたくさんのスピーカーに割り当て直してサラウンド再生する大掛かりなもの、あるいはアルバムごとの音量の違いを揃えて聞きやすくするような地味なもの、さらにはユーザーが意識しないところで、たとえばアクティブスピーカーの内蔵アンプがユニットの特性にあわせて最終段で細工をするようなもの、各段階で大小様々な加工がかかりうると思います。
となると、消費者のもとに配信されてきた音楽は「これ以上手を加えない完成品」ではなくて、むしろ「これからもまだまだ弄繰り回す素材」という位置付けになるんですが、そのあたりを含めた言説をあまり目にしないのが気になります。これだけ喧々諤々で盛り上がっているテーマなのに、何故か「限りなく無加工に近い条件で比べる」ことは大前提条件として誰も気に留めていないかのような印象。
もちろん、実際にテストしてみたら「ユーザー側でかけられる一般的な加工程度なら16/44.1kで十分だった」という結果が出ても不思議ではないです。
# 元ネタサイトの本来の論点がそこではなく「24/192kなんか気にするより、16/44.1kの世界のなかでロッシーからロスレスに乗り換えたほうがいいよ!」なのは理解しています。
ほぼ実情に合ってます。個室の防音室がいっぱい並んでたり、百万超のスピーカーがその辺においてあるようなメーカーにいますが、16bit/44.1kHzと、24bit/192kHzを聞き分けられる人なんていません。もっと言えば、16bit/44.1kHzを320kbpsで圧縮したものでも、ブラインドテストで聞き分けるのは無理です。16bit/44.1kHzと、24bit/192kHzでマスタリングが違うものなら簡単に聞き分けられますが、元の24bit/192kHzと、それを単純にダウンサンプリングしたもので聞き分けるのは不可能じゃないでしょうか。
イコライザの演算誤差はどうなの?という件について。編集するときに24bit/192kHzの方がいいのは、変種後に保存するときに量子化誤差が乗るからです。ユーザ側でイコライザで演算する場合でも、音質を気にするまともな機材なら、入り口で192kHzにアップサンプリングして内部32bitとかになってます。ユーザ側で劣化するのは、初めにアップサンプリングするまでの1回だけですが、編集するときには複数回データとして出力する過程を経るので、量子化誤差を気にしてます。
より多くのコメントがこの議論にあるかもしれませんが、JavaScriptが有効ではない環境を使用している場合、クラシックなコメントシステム(D1)に設定を変更する必要があります。
コンピュータは旧約聖書の神に似ている、規則は多く、慈悲は無い -- Joseph Campbell
配信された音楽は「完成品」? (スコア:2, 興味深い)
このストーリーのコメントにもいくつかありますが、この手の話題で出てくる「可聴範囲を超えるのスペックは録音・加工時の素材にだけ必要、消費者に配る完成品は可聴範囲をカバーしていればOK」という定説、これって本当に実情にあっているんでしょうか?
音楽の場合、プレイヤー側で加工を行いながら再生することって珍しいことじゃないですよね。
それは「低音強調」「ボーカル強調」「ROCKモード」「CLASSICモード」のようにユーザーの好みで選択する一般的なイコライザーもあれば、ホームシアターのような環境で2chの音源をたくさんのスピーカーに割り当て直してサラウンド再生する大掛かりなもの、あるいはアルバムごとの音量の違いを揃えて聞きやすくするような地味なもの、さらにはユーザーが意識しないところで、たとえばアクティブスピーカーの内蔵アンプがユニットの特性にあわせて最終段で細工をするようなもの、各段階で大小様々な加工がかかりうると思います。
となると、消費者のもとに配信されてきた音楽は「これ以上手を加えない完成品」ではなくて、むしろ「これからもまだまだ弄繰り回す素材」という位置付けになるんですが、そのあたりを含めた言説をあまり目にしないのが気になります。これだけ喧々諤々で盛り上がっているテーマなのに、何故か「限りなく無加工に近い条件で比べる」ことは大前提条件として誰も気に留めていないかのような印象。
もちろん、実際にテストしてみたら「ユーザー側でかけられる一般的な加工程度なら16/44.1kで十分だった」という結果が出ても不思議ではないです。
# 元ネタサイトの本来の論点がそこではなく「24/192kなんか気にするより、16/44.1kの世界のなかでロッシーからロスレスに乗り換えたほうがいいよ!」なのは理解しています。
Re:配信された音楽は「完成品」? (スコア:2, 興味深い)
ほぼ実情に合ってます。
個室の防音室がいっぱい並んでたり、百万超のスピーカーがその辺においてあるようなメーカーにいますが、
16bit/44.1kHzと、24bit/192kHzを聞き分けられる人なんていません。
もっと言えば、16bit/44.1kHzを320kbpsで圧縮したものでも、ブラインドテストで聞き分けるのは無理です。
16bit/44.1kHzと、24bit/192kHzでマスタリングが違うものなら簡単に聞き分けられますが、
元の24bit/192kHzと、それを単純にダウンサンプリングしたもので聞き分けるのは不可能じゃないでしょうか。
イコライザの演算誤差はどうなの?という件について。
編集するときに24bit/192kHzの方がいいのは、変種後に保存するときに量子化誤差が乗るからです。
ユーザ側でイコライザで演算する場合でも、音質を気にするまともな機材なら、
入り口で192kHzにアップサンプリングして内部32bitとかになってます。
ユーザ側で劣化するのは、初めにアップサンプリングするまでの1回だけですが、
編集するときには複数回データとして出力する過程を経るので、量子化誤差を気にしてます。