パスワードを忘れた? アカウント作成
12786038 story
Google

Google、機械学習に特化した独自LSIチップを開発 30

ストーリー by hylom
ちょっと欲しい 部門より
あるAnonymous Coward 曰く、

最近人工知能や機械学習に力を入れているGoogleだが、同社は機械学習に向けて特化したLSIを独自に開発、導入を進めているそうだ(TechCrunch)。

このモジュールは「Tensor Processing Units(TPU)」と呼ばれており、たとえばGoogleの音声認識サービスなどですでに使われているほか、先日囲碁のプロ棋士に勝利したAlphaGoでも採用されているという。

この議論は賞味期限が切れたので、アーカイブ化されています。 新たにコメントを付けることはできません。
  • by Anonymous Coward on 2016年05月20日 14時04分 (#3015920)

    リンクされてるTechCrunchの記事 [techcrunch.com]の表題に『~なんと、8ビット機だ』とあるけど本当かしら?
    原文 [techcrunch.com]見ても

    Google also manages to speed up the machine learning algorithms with the TPUs because it doesn’t need the high-precision of standard CPUs and GPUs. Instead of 32-bit precision, the algorithms happily run with a reduced precision of 8 bits, so every transaction needs fewer transistors.

    とあるのみで 8ビット機である、みたいな説明は見当たらんのだけど。
    8ビットの浮動小数点演算 [wikipedia.org]をする演算器がパラに数十~数百個並んでる構成とかだったとして、それを以て「8ビット機」とは言わんよなあ。

    • by Anonymous Coward on 2016年05月20日 17時10分 (#3016020)

      http://www.eetimes.com/document.asp?doc_id=1329715 [eetimes.com]
      では
      “The TPUs are “likely optimized for a specific math precision possibly 16-bit floating point or even lower precision integer math,” Krewell said.

      意訳:
      TPUは、どうやら16ビット浮動小数点の精度あるいはさらに低い精度の整数演算用に特別に最適化されているようだ。と、Krewellは語った。

      ってことで訳は正しいですかね
      8bitっていう意味ではないですね。

      親コメント
      • by Anonymous Coward

        8ビット機の定義が曖昧なのが根本的な問題だと思うんですけど

        • by Anonymous Coward

          cpu処理能力のビット数と、
          数学的な演算精度とをごっちゃにしているんだよ

          • by Anonymous Coward

            8bitでの計算に特化して最適かしてるんだから、8bit機と呼んでも差し支えはあるまい

      • by Anonymous Coward

        機械学習用ですらないと推測されている
        Krewellさんは外部のアナリスト

        “It seems the TPU is focused on the inference part of CNN and not the training side,” Krewell said. “Inference only requires less complex math and it appears Google has optimized that part of the equation.

        “On the training side, the requirements include very larger data sets which the TPU may not be optimized for. In this regard, Nvidia's Pascal/P100 may still be an appealing product for Google,” he added.

      • by Anonymous Coward

        DeepLearningの用途では、16bitでも十分という用途はたくさんあるそうです。
        先日発表されたNVIDIAの新しいGPUも、16bitの演算を高速に実行できることを売りにしています。

        研究の分野では、IEEE 754の16bit浮動小数点は使いにくいって話もあります。
        指数5bit+仮数10bitなのですが、指数はもっと増やして(ダイナミックレンジを大きく)、仮数はもっと減らして(精度は不要)ほしいそうです。
        学習後の利用時には、8bitでも過剰という話も。
        Googleの物が8bitかどうかは分かりませんが、精度はもっとばっさりと切ってるかもしれません。

    • by Anonymous Coward

      セガサターンは64bit。

      • by Anonymous Coward

        セガサターンは「64ビット [sega.jp]ですよ。

        • by Anonymous Coward

          セガ理論だと(8×TPUのユニット数)bit級ということになりませんか。

          • by Anonymous Coward

            そう、セガは 32bit の CPU を 2 個積んでたから、64 bit (級)と言ってた。

    • by Anonymous Coward

      翻訳者の名前をみてお察し。

        • by Anonymous Coward

          むしろ、70歳すぎた爺さんが、テクノロジー記事の翻訳で
          活躍している状況に呆れるところじゃないですかね?

          しかも全盛期はコンピューター関連の仕事をしていたわけでも無い人みたいですし…

          • by Anonymous Coward

            思い込みで余計なことを付け加える癖のある訳者であると少なくとも20何年前から言われてる人なので現在の年齢はあんま関係ねんじゃね?

    • by Anonymous Coward

      全く関係ないが、むかしZ80を多数寄せ集めてスパコンを作ろう、みたいな話があったな

  • by wood377 (46309) on 2016年05月21日 10時34分 (#3016407) 日記

    人工知能で、LISPマシンなんてのがあったと思い出した。

    結局、汎用マシンの方が、進化が速くで、淘汰された。
    ある程度の市場規模がないと、生き残れないようで。
    ただ、単機能のチップを大量に使うから、量産効果が期待できて、
    それなりのコストパフォーマンスがあるか。

    8bitかどうかは、設計思想上、最適かどうかでどうでもいいこと。
    PCの内部バスもパラレル(8->16->...)から、一転、シリアル(1bit)になったりしてる。

  • by Anonymous Coward on 2016年05月20日 13時38分 (#3015906)

    売ってくれないのかな
    いくら位だろ

    • by Anonymous Coward

      1080も出たばっかりなんだしさ

      • by Anonymous Coward

        GTX1080はFP16が遅い(FP32と同じ)ので、普通はGP100のTesla P100の方を買うんじゃないの?

        • by Anonymous Coward

          Wikipedia [wikipedia.org]にはHalf precision FP16 operations executed at twice the rate of FP32って書いてあるけどこれは違う?

          • by Anonymous Coward

            Tesla P100からそう予想されるってのがその5月頭の出典で、今週になってGTX1080はグラフィックス特化でFP16やFP64は強化してないって発表された

  • by Anonymous Coward on 2016年05月20日 20時08分 (#3016154)

    これはターミネーターのブレインチップに相当するものですよね。

  • by Anonymous Coward on 2016年05月20日 22時36分 (#3016239)

    昔のCの処理系ではdoubleの方がfloatより速かったりして、floatを使うのは止めろというアドバイスをよく見かけました。

    一方、最近ではグラフィック用にfloatを使うことが多くなり、「科学技術計算」なのに半精度(16bit)を使うケースを目にしたり、最先端の人工知能で8bitなんて言われるのは不思議な感じです。

    • by Anonymous Coward

      メモリ効率とのトレードオフやね

      • by Anonymous Coward

        当時のdouble対floatは確かにメモリ効率の話ですが、最近は精度を下げて演算器の面積を節約するのがトレンドのようです。
        幅を半分にすると面積が1/4以下になることもあるので、同じ面積で計算速度が4倍以上になるなんてこともあり得ます。

    • by Anonymous Coward

      K&Rの頃はfloatの演算は一旦doubleに昇格されて処理される決まりだったし仕方ないよね。

    • by Anonymous Coward

      昔、某ミニコンの乗除算は、intより、floatが速かったなんてのが、あったけど。

      理由はお察しの通り、、、
      今の人は分からないかも知れないが、
      ミドル以上は、外に浮動小数点専用の回路を積んでいた。

    • by Anonymous Coward

      PC-8801でレイトレ演算をやらそうとfloat[100000]の配列定義したのに動かない(´・ω・`)
      と言ってた友人を思い出した。

      • by Anonymous Coward

        レイトレに100000もの要素の1次元配列って何に使う用の話してんの?
        レンダリング結果の保存用なら2次元か3次元の配列が便利とは思うけど。

typodupeerror

Stay hungry, Stay foolish. -- Steven Paul Jobs

読み込み中...