パスワードを忘れた? アカウント作成
12899093 story
Google

Google、ニューラルネットワークを使った画像圧縮技術を開発 22

ストーリー by hylom
画像圧縮が再ブーム? 部門より
あるAnonymous Coward 曰く、

Googleが新しい画像圧縮技術を開発しているそうだ(Engadget Japanese研究論文)。

この技術はニューラルネットワークを使うのが特徴で、既存方式と比べて4〜8%の圧縮効率向上が実現できるという。具体的には画像データを32×32ピクセルのブロックに分割し、部分事に効果的な圧縮方法を学習させることで、ブロックごとに最適な圧縮方法を行えるというものらしい。

なお、画像フォーマットについては特に言及されていないようだ。

この議論は賞味期限が切れたので、アーカイブ化されています。 新たにコメントを付けることはできません。
  • 画像フォーマットについては特に言及されていないようだ。

    わけがわからないよ。

  • by hakikuma (47737) on 2016年08月30日 19時53分 (#3072621)
    これってただ単に
    「ニューラルネットワーク」
    って言いたいだけなんじゃないの?
    流行らせたいのかな。
  • by Anonymous Coward on 2016年08月30日 13時07分 (#3072343)

    学術研究としては有意義だろうが、メモリはジャブジャブ使いたい放題、ネットワークの帯域も余裕綽々の時代なので、複雑な処理を必要とする4%~8%の圧縮率向上は一般消費者レベルでは関係ない
    さらに言うなら、特に一般人がメリットを感じなくても、それが規格になって機器に実装されればいつの間にか意識することなく利用することになる
    #昔ならともかく、今はこの種のニュースは大して気にもならない

    • by Anonymous Coward on 2016年08月30日 13時13分 (#3072348)

      googleのデータセンタにおいて意味があるなら十分だと思うのだが?

      親コメント
      • FirefoxのH264コーデックってCiscoが金出してるんですよね
        ルータ屋さん的にはそうした方がペイするだろうなぁと思わせます

        親コメント
        • by Anonymous Coward

          Ciscoはネットワーク機器繋がりでWebEx [webex.co.jp]っていうネット会議システム売ってるので、ソレをFirefoxに対応させるメリットがある。

      • by Anonymous Coward on 2016年08月30日 13時40分 (#3072366)

        だねぇ。ストレージに1000億使ってるなら、40億節約できるなら4億突っ込んで
        開発する意味は十分ある。
        簡単な算数だねぇ
        で、その技術ををハブリックにしてくれると有難い、という話だろうな/.的には
        向こうでクローズドだったら確かにあっそ、で終わる話だ

        親コメント
      • by Anonymous Coward

        googleのデータセンタにおいて意味があるなら十分だと思うのだが?

        データセンターで違いが生まれてもこの人の言う消費者レベルの違いは発生しないでしょう。ただ4%程度でも容量を削減できればモバイルユーザと低速な固定回線のユーザーは消費者レベルでもその恩恵を受けられるのではないかと。通信量が減れば帯域制限への恐怖が和らぎますし表示に必要な時間が今と同程度なら表示時間が短縮されますから。
        私も昔ならともかく、今はこの種のニュースは大して気にしない。ただ理由が逆で"さらに言うなら、特に一般人がメリットを感じなくても、それが規格になって機器に実装されればいつの間にか意識することなく利用することになる"というのが事実に反していて規格の策定は実現しても普及まで行かないから。

    • by Anonymous Coward

      モバイルデバイスのこと忘れてない?

  • by Anonymous Coward on 2016年08月30日 13時25分 (#3072355)

    部分事 → 部分毎

  • by Anonymous Coward on 2016年08月30日 14時20分 (#3072382)

    「機械学習を利用した画像圧縮アルゴリズムを考案しました」っていう論文テーマがなんか平凡だし、
    既存技術と比較するならJPEG 2000やWebPとすべきで、いまやアルゴリズムとしては旧式のJPEGと比較するのもいかがなものかと思うし、
    そのJPEGと比較して4~8%の圧縮率向上っていうのも、どんなもんかねえ。

    画像フォーマットの仕様化と実装まで実現していて、トータルでの優位性を主張できれば価値もあるかもだけど、
    アルゴリズム部分だけみたいだし。

    なんだか、本来はニュースになるような論文ではない気がする。
    もちろん論文を発表すること自体はぜんぜん悪くなくて、
    Googleっていうだけで注目されて、中の人にとっては大変だなあと思う。

    • by Anonymous Coward

      そもそも論文の中にどのくらいの圧縮率なのかのデータが無いような・・・

  • by Anonymous Coward on 2016年08月30日 15時27分 (#3072438)

    最適なものを(高速に)選ぶとかに使えるのかな
    と思ったらブロック分割はちょっと違うのか、残念。

  • by Anonymous Coward on 2016年08月30日 16時34分 (#3072488)

    あれですな、データに応じて圧縮アルゴリズム自体を変えることで、いかなるデータでも圧縮可能で、しかも最も小さく圧縮されるというやつ。

  • by Anonymous Coward on 2016年08月30日 18時29分 (#3072579)

    たったの16バイトに圧縮しました(キリっ
    え?非可逆圧縮でしょ?
    ※さらに圧縮すると「通報スマスタ」と12バイトまで圧縮可能です。

    冗談はさておき、ニューラルネットワークを使って画像を文章化するというのは割とやられているような気がします。

    • by Anonymous Coward

      googleにウチのHDD上のデータの可逆圧縮を頼んだら
      20バイトに圧縮されたのはいいのですが、
      圧縮されたファイルをメモ帳で開いたら「巨乳水着でググれカス」って書いてあっただけなのは可逆圧縮って呼ぶんでしょうか……。

      • by hakikuma (47737) on 2016年08月31日 12時58分 (#3072974)
        可逆じゃないですね。
        というのもインターネット上の巨乳水着なデータは日々増産されていっているはずなので
        ググってデータを回収したら、元データよりも増えてしまうという
        ものすごい圧縮技術ですよ。

        さすが「乳ラルネットワーク」
        親コメント
      • by Anonymous Coward

        冗長性を取り除くという意味では、可逆圧縮であってる気がする。

  • >>なお、画像フォーマットについては特に言及されていないようだ。
    BMPです

typodupeerror

「科学者は100%安全だと保証できないものは動かしてはならない」、科学者「えっ」、プログラマ「えっ」

読み込み中...