アカウント名:
パスワード:
ただ単に過去10年間のデータのうち・履歴書データに男性が多かった・従業員割合として男性が多い
そのため、女性を原点としたわけで別に差別的だったわけじゃなくって学習のさせ方と学習データが間違っていた
その程度だったら元データを選べばよいだけ。ところが、元々の選考が男女不平等だったら、それを学習した結果も不平等になる。今回のケースはおそらくこれで、これは元データの選び方を変えたぐらいじゃ直らない。
偏った学習データからは偏ったAIが生まれる。実際MicrosoftのAI Tayがヘイト発言を学習してしまったことでも分かる。じゃあ偏った学習データから偏っていない学習データをどう抽出するかと言われると、そんな方法はない。
より多くのコメントがこの議論にあるかもしれませんが、JavaScriptが有効ではない環境を使用している場合、クラシックなコメントシステム(D1)に設定を変更する必要があります。
日々是ハック也 -- あるハードコアバイナリアン
学習データが間違っていたっていうだけでしょ (スコア:1)
ただ単に過去10年間のデータのうち
・履歴書データに男性が多かった
・従業員割合として男性が多い
そのため、女性を原点としたわけで別に差別的だったわけじゃなくって
学習のさせ方と学習データが間違っていた
Re: (スコア:0)
その程度だったら元データを選べばよいだけ。
ところが、元々の選考が男女不平等だったら、それを学習した結果も不平等になる。
今回のケースはおそらくこれで、これは元データの選び方を変えたぐらいじゃ直らない。
Re:学習データが間違っていたっていうだけでしょ (スコア:1)
偏った学習データからは偏ったAIが生まれる。実際MicrosoftのAI Tayがヘイト発言を学習してしまったことでも分かる。
じゃあ偏った学習データから偏っていない学習データをどう抽出するかと言われると、そんな方法はない。