アカウント名:
パスワード:
勾配降下法の誤判定ってことは極値に陥らせるように広く浅い漏斗型の関数で学習内容を歪めるとかかな?
リンク先情報が何言ってんだかわからない、と分かることができるのが人間のような気がするくらい、わからない
・元コメの言うように、「学習をゆがめる」ことのできる入力なのか (勾配を意図的にゆがめた学習データ、ってありがちなことではあるけど、 作るの面倒くさそう、それコスパあるの。 論文だけで実証可能な「ありうる可能性」なんじゃないの)・学習済みの分類器に対して、出力をゆがめることができる入力なのか (やり方すらわからないができたらすごすぎる)
で、どっち。てことがarxivのアブスト [arxiv.org]見に行ってまで「わからない」。ふつうアブストまで行けばどっちかわかりそうなもんだけど
むしろソーカル事件みたいな罠なんじゃないだろうかと疑ってみたくもなる#まあテレワークで引きこもっているから脳が縮退している可能性も高いが
お前ら二人とも「敵対的サンプル」でググってこい常識だが付番されてなかったから説明を省けるように付けたんだろう
TeslaのAutopilot初期型って機械学習じゃなくね?設計された年代がディープラーニングブームより前だろ
教えてくれてありがとう。まだよくわからないけど。
>常識だが付番されてなかったから説明を省けるように付けたんだろう
分かる「同士」相手に他にわからない符号で会話するって、宗教団体か革命のための前進機関だよね。で、どっちな(バキューン
アホらし…ソースが無かったからまとめページを作ったのを宗教扱いとは。ネット上のページは全て宗教だとでも? やっぱACはダメだな。
で、結局こういうの弾くのはどうやるの?データをランダムに複数に分けてそれぞれ学習させ、結果が大きく外れている学習セットを汚染セットとして省いていく、っていうのが思い付くけど、そういう感じ?
横レス。手法は色々あるはずで一例としては、敵対サンプル生成機の出力食わせて狂わない方向に学習させるとか聞いた気がするけど……そもそも敵対的サンプルの見た目からして、学習結果それ自体が構造的な分類じゃなくて中間層の活きてない一種の過学習であるようにしか見えない。何らかの過学習や中間層不足が原因であるなら、今の延長線では根本解決はせずにイタチごっこで終わる気がする。
より多くのコメントがこの議論にあるかもしれませんが、JavaScriptが有効ではない環境を使用している場合、クラシックなコメントシステム(D1)に設定を変更する必要があります。
未知のハックに一心不乱に取り組んだ結果、私は自然の法則を変えてしまった -- あるハッカー
具体的にどういうの? (スコア:0)
勾配降下法の誤判定ってことは極値に陥らせるように広く浅い漏斗型の関数で学習内容を歪めるとかかな?
「よくわからないけどちぃ覚えた。『勾配降下法のMLはダメ機械!』」←「はいお前ダメAI」 (スコア:0)
リンク先情報が何言ってんだかわからない、と分かることができるのが人間のような気がするくらい、わからない
・元コメの言うように、「学習をゆがめる」ことのできる入力なのか
(勾配を意図的にゆがめた学習データ、ってありがちなことではあるけど、
作るの面倒くさそう、それコスパあるの。
論文だけで実証可能な「ありうる可能性」なんじゃないの)
・学習済みの分類器に対して、出力をゆがめることができる入力なのか
(やり方すらわからないができたらすごすぎる)
で、どっち。てことがarxivのアブスト [arxiv.org]見に行ってまで「わからない」。ふつうアブストまで行けばどっちかわかりそうなもんだけど
むしろソーカル事件みたいな罠なんじゃないだろうかと疑ってみたくもなる
#まあテレワークで引きこもっているから脳が縮退している可能性も高いが
Re: (スコア:0)
お前ら二人とも「敵対的サンプル」でググってこい
常識だが付番されてなかったから説明を省けるように付けたんだろう
TeslaのAutopilot初期型って機械学習じゃなくね?
設計された年代がディープラーニングブームより前だろ
Re: (スコア:0)
教えてくれてありがとう。まだよくわからないけど。
>常識だが付番されてなかったから説明を省けるように付けたんだろう
分かる「同士」相手に他にわからない符号で会話するって、
宗教団体か革命のための前進機関だよね。
で、どっちな(バキューン
Re:「よくわからないけどちぃ覚えた。『勾配降下法のMLはダメ機械!』」←「はいお前ダメAI」 (スコア:0)
アホらし…ソースが無かったからまとめページを作ったのを宗教扱いとは。
ネット上のページは全て宗教だとでも? やっぱACはダメだな。
Re: (スコア:0)
で、結局こういうの弾くのはどうやるの?
データをランダムに複数に分けてそれぞれ学習させ、結果が大きく外れている学習セットを汚染セットとして省いていく、っていうのが思い付くけど、そういう感じ?
Re: (スコア:0)
横レス。
手法は色々あるはずで一例としては、敵対サンプル生成機の出力食わせて狂わない方向に学習させるとか聞いた気がするけど……
そもそも敵対的サンプルの見た目からして、学習結果それ自体が構造的な分類じゃなくて中間層の活きてない一種の過学習であるようにしか見えない。
何らかの過学習や中間層不足が原因であるなら、今の延長線では根本解決はせずにイタチごっこで終わる気がする。