アカウント名:
パスワード:
より多くのコメントがこの議論にあるかもしれませんが、JavaScriptが有効ではない環境を使用している場合、クラシックなコメントシステム(D1)に設定を変更する必要があります。
※ただしPHPを除く -- あるAdmin
ひどいタレコミだなぁ (スコア:0, すばらしい洞察)
Re:ひどいタレコミだなぁ (スコア:4, 参考になる)
技術系ニュースサイトでCCD等の基本的な内部構造を説明する必要が
あるのかな?と思ったけど。
必要みたいなので、ちょいと補足します。
シグマ等の一部のカメラに使われてるセンサーを除くと、
R,G,Bどれかを一つだけの色情報を拾う受光部が並んでる。
大抵は
RG
GB
みたいに並んで1つのユニットを形成してるが、これだけでは
画素数が1/4になってしまうのと空間周波数の関係でモアレノイズ
が出てくる。それを改善するために、一旦ローパスフィルタで画像を
若干ぼやかしてもともと一つの画素に当たるはずの光を複数の画素に当て
Re:ひどいタレコミだなぁ (スコア:1)
これは同意。
ともあれ、タレコミの、センサという一般的な用語で、画像センサのうちさらに特別の配列のものをイメージするのが当たり前って言うスタンスがそもそもちょっとね、と思ってしまいます。
画像センサの空間フィルタとしてのローパスフィルタの話だって言うのは、まあリンク先を読むとか、ニコンだからこの方向だろうとかあて推量すればいいのだろうし、nexxさんもだから空間フィルタの必要性の説明をしてらっしゃるんだと思いますが...センサには加速度センサもあればpHセンサもあるし、少なくともリンク先は"RGB sensor"って書いてあるから、光学関連のセンサだってとこまではわかるし。なんでわざわざ"RGB"を落としたんでしょ。
アナログ情報をデジタル化する際、エイリアシングの問題からローパスフィルタを使うのはごく一般的な話と思います。で、どのようなセンサに対して、そのごく当たり前に適用されているローパスを無くせたのか、というのは今回のキモでしょう。そのキモが判らないんだから、突っ込み入れたくなるんじゃないかなあ。