アカウント名:
パスワード:
英語に限る
ただし英語に限る,というのは過去の発想だと思います
Deep learning(深層学習)という大きなパラダイムシフトがあったので今では,言語に依存しない手法や技術,が主流になっています
タレコミにある音声認識技術も,内部ではマイクロソフトが開発したDeep lerningのエンジンを使っています.これは日本語のデータを用意すれば,日本語を学習します.もはや言語は関係ありません.
んなこたーない。このレベルのシステムは汎用的なディープラーニングに食わせてるだけじゃなくて、ディープラーニング自体も目的に最適化してるし、前処理や後処理でも言語の影響はでるよ。> エラーレートの改善には、文脈を分析して次にくる言葉やフレーズを予測する技術この辺なんかもモロに言語毎に貯めたノウハウが必要だし。
Tensor Flowにでも適当なデータ入れて作ってみれば分かるけど、汎用プログラムじゃあ全く使い物にならない精度しかでないよ。
言語ごとにNNを最適化するよりも、大抵の場合「適当なデータ」と量の方が問題でしょ
適切なデータさえあればLSTMとSequence-to-Sequence Modelでなんとかなるやろ(適当)
汎用NNで「適切なデータと量」だけで、日本語認識のエラーレートは5.9%とか絶対出ないと思うんだけど。NNは概念レベルではデータ量集める程、精度が上がるって事になるけど、現実的には保持できる内部データの量(段数)は有限だから、データが一定以上になるとそれ以上は精度が上がらなくなる。そうなると、NNを目的にそってカスタマイズしたり、前処理後処理を加えて精度を上げる事になるけど、英語圏の人が英語のデータで改良を加えていくと結果的に英語やそれに近い言語での精度が上がってくる。
より多くのコメントがこの議論にあるかもしれませんが、JavaScriptが有効ではない環境を使用している場合、クラシックなコメントシステム(D1)に設定を変更する必要があります。
アレゲはアレゲ以上のなにものでもなさげ -- アレゲ研究家
ただし (スコア:0)
英語に限る
もはや言語は関係ない (スコア:1)
ただし英語に限る,というのは過去の発想だと思います
Deep learning(深層学習)という大きなパラダイムシフトがあったので
今では,言語に依存しない手法や技術,が主流になっています
タレコミにある音声認識技術も,内部ではマイクロソフトが開発したDeep lerningのエンジンを使っています.
これは日本語のデータを用意すれば,日本語を学習します.もはや言語は関係ありません.
Re: (スコア:0)
んなこたーない。
このレベルのシステムは汎用的なディープラーニングに食わせてるだけじゃなくて、ディープラーニング自体も目的に最適化してるし、前処理や後処理でも言語の影響はでるよ。
> エラーレートの改善には、文脈を分析して次にくる言葉やフレーズを予測する技術
この辺なんかもモロに言語毎に貯めたノウハウが必要だし。
Tensor Flowにでも適当なデータ入れて作ってみれば分かるけど、汎用プログラムじゃあ全く使い物にならない精度しかでないよ。
Re:もはや言語は関係ない (スコア:0)
言語ごとにNNを最適化するよりも、
大抵の場合「適当なデータ」と量の方が問題でしょ
適切なデータさえあればLSTMとSequence-to-Sequence Modelで
なんとかなるやろ(適当)
Re: (スコア:0)
汎用NNで「適切なデータと量」だけで、日本語認識のエラーレートは5.9%とか絶対出ないと思うんだけど。
NNは概念レベルではデータ量集める程、精度が上がるって事になるけど、現実的には保持できる内部データの量(段数)は有限だから、データが一定以上になるとそれ以上は精度が上がらなくなる。
そうなると、NNを目的にそってカスタマイズしたり、前処理後処理を加えて精度を上げる事になるけど、英語圏の人が英語のデータで改良を加えていくと結果的に英語やそれに近い言語での精度が上がってくる。