アカウント名:
パスワード:
AlphaGO→囲碁のルールは実装していない。ひたすら勝てる手を効率よく捜すことに特化。強化学習も何が正しいか(つまり人間が作った勝てる棋譜)を初期学習させる必要がある。AI「囲碁?何の事か分かりませんが、勝つと言われる状態になる確率が一番高いのはこの手です」
AlphaGO Zero→囲碁のルールを実装している。いわば「教師なし学習」で、AIが目指すひとつの目標。自己学習で強化されるが、初期学習に人の手(棋譜)を使わないのが特徴。AI「俺の経験だと、この手が一番強い」
あなたの人工知能の解釈、以前からウソだらけ。だれか彼を教育する学習法を開発してくれ。俺には思いつかん。
1行目の囲碁のルールは実装していないって、なんだそりゃ。一度に百石置く場合とかから学習しているのか?ケッサクだな。ちなみに囲碁のルールって、一石ごと交互に置く以外はコウと自死ぐらいしかないのくらいはいい加減そろそろ調べて覚えてくれ。
本論はわからんけど囲碁のルールって細かいところは難しいよ隅のマガリ四目はそういうもんだとは覚えているけどちゃんと説明するのはでけんあと中国ルールだと半目勝ちなのに日本ルールだと半目負けとか
隅のマガリ四目は日本ルールだと「ルールの一部」になっているけど、中国ルールでは、ルールの一部ではなく、「ルールから導ける帰結」だから、コウ付き隅のマガリ四目とか、コウ材が消せない場合も含めて、双方の対局者が納得する結果になるよ。トラズ三目も同様。
その点で、中国ルールの方が優れている。個人的には、中国ルールの偶数ダメの問題を修正した台湾ルールが最も美しいと思う。
より多くのコメントがこの議論にあるかもしれませんが、JavaScriptが有効ではない環境を使用している場合、クラシックなコメントシステム(D1)に設定を変更する必要があります。
犯人は巨人ファンでA型で眼鏡をかけている -- あるハッカー
AI「今度の俺は囲碁に詳しいから知ってるんだッ!!・・・」 (スコア:0)
AlphaGO
→囲碁のルールは実装していない。ひたすら勝てる手を効率よく捜すことに特化。
強化学習も何が正しいか(つまり人間が作った勝てる棋譜)を初期学習させる必要がある。
AI「囲碁?何の事か分かりませんが、勝つと言われる状態になる確率が一番高いのはこの手です」
AlphaGO Zero
→囲碁のルールを実装している。いわば「教師なし学習」で、AIが目指すひとつの目標。
自己学習で強化されるが、初期学習に人の手(棋譜)を使わないのが特徴。
AI「俺の経験だと、この手が一番強い」
Re: (スコア:2, 興味深い)
あなたの人工知能の解釈、以前からウソだらけ。
だれか彼を教育する学習法を開発してくれ。俺には思いつかん。
1行目の囲碁のルールは実装していないって、なんだそりゃ。
一度に百石置く場合とかから学習しているのか?ケッサクだな。
ちなみに囲碁のルールって、一石ごと交互に置く以外はコウと自死ぐらいしかないのくらいは
いい加減そろそろ調べて覚えてくれ。
Re:AI「今度の俺は囲碁に詳しいから知ってるんだッ!!・・・」 (スコア:1)
本論はわからんけど囲碁のルールって細かいところは難しいよ
隅のマガリ四目はそういうもんだとは覚えているけどちゃんと説明するのはでけん
あと中国ルールだと半目勝ちなのに日本ルールだと半目負けとか
Re:AI「今度の俺は囲碁に詳しいから知ってるんだッ!!・・・」 (スコア:1)
隅のマガリ四目は日本ルールだと「ルールの一部」になっているけど、
中国ルールでは、ルールの一部ではなく、「ルールから導ける帰結」
だから、コウ付き隅のマガリ四目とか、コウ材が消せない場合も含めて、
双方の対局者が納得する結果になるよ。トラズ三目も同様。
その点で、中国ルールの方が優れている。個人的には、中国ルールの
偶数ダメの問題を修正した台湾ルールが最も美しいと思う。