アカウント名:
パスワード:
どのように学習を構築しているのか正確にはわかりませんが、画像認識アルゴリズムが人間とゴリラを区別できる精度にないというよりは、入力データの一部として用いているであろうWebの情報の中に、黒○→ゴ○○という情報が、学習に無視できない量で存在していたことが今回の結果を導いたのだと思います。そのような情報(差別意識)があふれている現状ならば悲しい。。。
DeepLearning系につっこまれる膨大な入力データに対し、正しいデータであることを担保することや、誤ったデータを排除することは、なかなか手間がかかりそうですね。誰にとっての正しい、謝り、なのかの判断も含めて。
その通りのようですね。
Googleのソーシャル部門のチーフ・アーキテクトのYonatan Zunger氏のツイート [twitter.com]より
Absolutely. Machines aren't biased, but they can easily learn racism from us if we aren't careful.
(訳:仰るとおり、機械にはバイアスはありません。しかし、私たちが注意していないと、機械は簡単に私たちから人種差別を学んでしまいます)
より多くのコメントがこの議論にあるかもしれませんが、JavaScriptが有効ではない環境を使用している場合、クラシックなコメントシステム(D1)に設定を変更する必要があります。
にわかな奴ほど語りたがる -- あるハッカー
問題の本質はGoogleではなく、、、 (スコア:1)
どのように学習を構築しているのか正確にはわかりませんが、
画像認識アルゴリズムが人間とゴリラを区別できる精度にないというよりは、
入力データの一部として用いているであろうWebの情報の中に、
黒○→ゴ○○という情報が、学習に無視できない量で存在していたことが
今回の結果を導いたのだと思います。
そのような情報(差別意識)があふれている現状ならば悲しい。。。
DeepLearning系につっこまれる膨大な入力データに対し、
正しいデータであることを担保することや、
誤ったデータを排除することは、なかなか手間がかかりそうですね。
誰にとっての正しい、謝り、なのかの判断も含めて。
Re:問題の本質はGoogleではなく、、、 (スコア:2)
その通りのようですね。
Googleのソーシャル部門のチーフ・アーキテクトのYonatan Zunger氏のツイート [twitter.com]より
(訳:仰るとおり、機械にはバイアスはありません。しかし、私たちが注意していないと、機械は簡単に私たちから人種差別を学んでしまいます)