パスワードを忘れた? アカウント作成
この議論は賞味期限が切れたので、アーカイブ化されています。 新たにコメントを付けることはできません。

英バース大学曰く、新技術によりピクセル形式のデータは5年以内に終わる」記事へのコメント

  • 文章を読む限りでは、デジカメやビデオの画像をベクトル化するように受け取れますが、
    本当に可能なのか、それで高解像度化と言えるのか?という疑問が湧いてきますね。

    計算力は時間が解決するでしょうが、ノイズと本質的な情報の区別が付かないと
    単に余計な情報を足している事になりかねませんし。

    オリジナルデータの解像度を保つ方が価値がありそうな気がするのですが。
    そういうのは自然科学や捜査などの分野だけの要求なのでしょうかねぇ。

    --
    --- de FTNS.
    • by TarZ (28055) on 2012年12月14日 16時17分 (#2290441) 日記

      オリジナルデータの解像度を保つ方が価値がありそう

      まあ、これが全てですよねえ。保存・転送すべき情報をコンパクトにまとめられる、という点では意味がありそうですが。

      # それはそれとして、PDFの方でやっぱり Lena画像が使われててわろた。

      親コメント
    • by Anonymous Coward on 2012年12月14日 16時51分 (#2290462)

      デジカメでもあり得る、と思う。
      最近の、無駄に高画素なコンデジ写真を等倍拡大して見ると、ピクセルというよりすでにベクタになってるのが分かるよ。
      レンズ性能や回折限界により、とっくにピクセル解像しなくなったのを、画像処理で補正してるんだけど、そのアルゴリズムがベクターっぽい塗り絵なんだよね。
      よく油絵とか言われたりするけど、筆で書いたようになっている。
      特に高感度ノイズを補正すると、この特徴が際立つ。
      「超解像処理」とか言って、図形を想像して補完しちゃうんだよね。

      これを突き詰めていけば、ベクタで記述も可能と思う。

      ただ、それが高画質かと言われるとどうだろねぇ…。

      親コメント
    • by Anonymous Coward on 2012年12月14日 15時51分 (#2290416)
      カメラの画像素子構成が配列的なんだから、必ず一次データはピクセルじゃなイカ?って気がしますね。
      親コメント
    • by Anonymous Coward on 2012年12月14日 15時59分 (#2290423)

      バース大学のリリースを読むと、video codecは既に発表済みということだし、サンプルビデオも見れますよ。

      そのサンプルを見てどう思うかはあなた次第。

      親コメント
    • by Anonymous Coward on 2012年12月14日 16時08分 (#2290432)

      もちろん。
      メディア的に入らないから稲妻走るデータに変換してですね…

      親コメント
    • by Anonymous Coward on 2012年12月14日 16時56分 (#2290467)

      「モノ」と「非・モノ」を区別する必要があるかもしれないですね。
      ちなみに人間の視覚認識も、一時的には網膜での「ピクセル的反応」ですが、網膜の細胞同士の結合や、脳内で「認知」の段階では「エッジ抽出とパターンマッチング」をして、ベクター(のような形)で認識しています。
      そのメカニズムを模倣すれば、自動的にベクター化出来るかもしれないですが、まあ「同じく作る」ためには「メカニズムを完全に解明する」必要がありますからねえ・・

      親コメント
    • 写真の中に存在する全ての境界線をベクトルとして認識・記録しておけば、写真を拡大しても境界のアウトラインがギザギザ・モヤモヤ成らないよ。ってところじゃね?

      現実の景色でA,B点の間にCがあっても、元データとしてCを記録できてなければCは再現できないし、その点に関してはこれも同様でしょう。
      ただ、A,B間に描かれた線の境界は、どんなに拡大してもギザギザせずにスパッと綺麗なまま、って意味での「どんなに拡大してもいける」ってことじゃね?たぶん。

      境界線を抽出するフィルターをいろんなパラメーターで掛けて、それら境界線をベクトルとして記録して、それを利用して何かする的なことな気がする。で、いくつか工夫してますよ的な、そんなとろこだと思う。たぶん。

      親コメント
    • by Anonymous Coward on 2012年12月15日 10時29分 (#2290825)

      新しいコーデックの普及には、ハードでの実装でのゲート数がどの位になるかが重要ですね。
      JPEG2000がJPEGに対して圧縮率や画像品位の点で有利であるにかかわらず普及しなかったのは、ハードでの実装ゲート数が格段に多かったからだと聞いています。
      MicrosoftがHD Photoフォーマットを提唱する際にも、JPEGと大差ないゲート数で実装できる事を売りにしていた位ですし。

      ベクター化となると、データの参照範囲の局所性が下がりますから、実装ゲート数の削減には不利でしょうね。

      親コメント
      • by Anonymous Coward

        JPEG2000はゲート数もさることながら、タイルのサイズが512x512とか(だったかな?)と
        ASICの中に一時的なメモリを取るには絶望的なサイズだったという方が問題だった気がする。
        まあ、ロジックだけではなくてメモリも含めてゲート数、というならやはりゲート数(回路規模)が
        大きかった、ということですが。
        あと、各社がいろいろ希望したんだろうけど、デコーダに求められる機能が余りに多かった
        ような気もします。

    • オリジナルデータって簡単に言うけど、昨今のハイエンドデジタルカメラのRAWですら
      ノイズ除去などのデジタル処理は入ってますよ。

      • by Anonymous Coward

        >オリジナルデータって簡単に言うけど、

        デバイス固有の特性に応じて「回復処理」を
        かけるという範囲なら、私的にはセーフ。
        高らかにオリジナルデータと呼びたい!!

ハッカーとクラッカーの違い。大してないと思います -- あるアレゲ

処理中...