アカウント名:
パスワード:
どのように学習を構築しているのか正確にはわかりませんが、画像認識アルゴリズムが人間とゴリラを区別できる精度にないというよりは、入力データの一部として用いているであろうWebの情報の中に、黒○→ゴ○○という情報が、学習に無視できない量で存在していたことが今回の結果を導いたのだと思います。そのような情報(差別意識)があふれている現状ならば悲しい。。。
DeepLearning系につっこまれる膨大な入力データに対し、正しいデータであることを担保することや、誤ったデータを排除することは、なかなか手間がかかりそうですね。誰にとっての正しい、謝り、なのかの判断も含めて。
その通りのようですね。
Googleのソーシャル部門のチーフ・アーキテクトのYonatan Zunger氏のツイート [twitter.com]より
Absolutely. Machines aren't biased, but they can easily learn racism from us if we aren't careful.
(訳:仰るとおり、機械にはバイアスはありません。しかし、私たちが注意していないと、機械は簡単に私たちから人種差別を学んでしまいます)
俺もそう思った。推定材料がGoogleのビッグデータからなのであればかなりの確率でそういう揶揄が入ってると思う。
そして、そのノイズ率は日本の方が高い可能性がある。
けっこう真面目な話で、例えば匿名掲示板なんかで、麻呂がエロ画像をご所望してるスレで黒人女性の写真を貼ったら9割9部の確率で「ゴリラ乙」みたいなレスが付くと思う。
そういう意味ではものすごく精度の高い認識になりつつあるんだが、それを表に出していいのかどうかの判断はできないって事なんだろう。なんというか純粋すぎる。
この手のアルゴリズムは画像の分類をするだけで、分類を何かと関連付けることはできませんゴリラだとあらかじめわかっている画像と同じに分類された画像が、ゴリラの画像だというわけです
より多くのコメントがこの議論にあるかもしれませんが、JavaScriptが有効ではない環境を使用している場合、クラシックなコメントシステム(D1)に設定を変更する必要があります。
皆さんもソースを読むときに、行と行の間を読むような気持ちで見てほしい -- あるハッカー
問題の本質はGoogleではなく、、、 (スコア:1)
どのように学習を構築しているのか正確にはわかりませんが、
画像認識アルゴリズムが人間とゴリラを区別できる精度にないというよりは、
入力データの一部として用いているであろうWebの情報の中に、
黒○→ゴ○○という情報が、学習に無視できない量で存在していたことが
今回の結果を導いたのだと思います。
そのような情報(差別意識)があふれている現状ならば悲しい。。。
DeepLearning系につっこまれる膨大な入力データに対し、
正しいデータであることを担保することや、
誤ったデータを排除することは、なかなか手間がかかりそうですね。
誰にとっての正しい、謝り、なのかの判断も含めて。
Re:問題の本質はGoogleではなく、、、 (スコア:2)
その通りのようですね。
Googleのソーシャル部門のチーフ・アーキテクトのYonatan Zunger氏のツイート [twitter.com]より
(訳:仰るとおり、機械にはバイアスはありません。しかし、私たちが注意していないと、機械は簡単に私たちから人種差別を学んでしまいます)
Re: (スコア:0)
俺もそう思った。
推定材料がGoogleのビッグデータからなのであればかなりの確率でそういう揶揄が入ってると思う。
そして、そのノイズ率は日本の方が高い可能性がある。
けっこう真面目な話で、
例えば匿名掲示板なんかで、麻呂がエロ画像をご所望してるスレで
黒人女性の写真を貼ったら9割9部の確率で「ゴリラ乙」みたいなレスが付くと思う。
そういう意味ではものすごく精度の高い認識になりつつあるんだが、それを表に出していいのかどうかの判断はできないって事なんだろう。
なんというか純粋すぎる。
Re: (スコア:0)
筋肉ムキムキマッチョな某黒人女性テニスプレイヤーとかじゃねえの?
黒人系でもエロい女性は普通にいるし。
もしそういったレスが無視できない規模のノイズとして出てくるなら、
データが偏っていると言わざるをえないと思う。
9割9分と言い切るあなたが見ている掲示板の偏りと同じぐらいに。
Re: (スコア:0)
この手のアルゴリズムは画像の分類をするだけで、分類を何かと関連付けることはできません
ゴリラだとあらかじめわかっている画像と同じに分類された画像が、ゴリラの画像だというわけです