アカウント名:
パスワード:
ただ単に過去10年間のデータのうち・履歴書データに男性が多かった・従業員割合として男性が多い
そのため、女性を原点としたわけで別に差別的だったわけじゃなくって学習のさせ方と学習データが間違っていた
これな、よく調べたら珍名さんなど、大した意味はない少数派の人達もマイナス評価にしてるはずなんだよ食わせたデータのせいにするのは危険だよ
いや、氏名を評価対象にするかどうかでしょ?
履歴書に書かれているデータ、年齢、性別、経歴、資格なんかを評価させてしまった結果男性が多い会社だから男性を優遇するAIになってしまったっていう話で性別を削除してたんだけど「女子大」っていうだけで減点になってしまったっていうだけでの話で学習データがそもそも偏っていたのだから偏って当たり前ですよ
偏ってるのは社内制度だろAmazon社内で女性社員と低評価の相関が高かったからAIが因子として強く出してしまった
いや、だから履歴書データの殆どが男性だったっていってるじゃん・・・そうしたら対象属性を分類していくと男性が多いわけでそうしたら男性を優先しただけ間違った学習データを矯正することはできないからあきらめたんでしょ
女性社員の評価云々なんてどこにもかかれていない・・・
募集の男女比と採用の男女比で、女性が明確に少なかった。そしてAIの理解では、どう判断しても性別でバイアスが係ってた・・・それが事実、だから模倣した。
募集の男女比と採用の男女比で、募集の比率に対して採用された女性が明確に少なかった。ね。
入力に女性が少なかったから女性の点数が低くなった、という単純なものではない
> Amazon edited the programs to make them neutral to these particular terms. But that was no guarantee that the machines would not devise other ways of sorting candidates that could prove discriminatory, the people said.
結局AIが何をやっているのか誰にもわからないAIに偏らないデータを食わせれば正しい評価を出す、かどうかは人間にはわからないアマゾンが開発を中止したのは慎重でよい決断です
> Amazonは特定の語句についてニュートラルな判定をするようプログラムを調整したが、差別的処理が行われていることを判別できない方法をAIが見つけ出さないとも限らないため、昨年初めに開発チームは解散したとのこと。
headlessのちょっと意味がわからん
差別を示してしまう候補者分類の別の方法をAIが見つけ出さないと保証できなかった
より多くのコメントがこの議論にあるかもしれませんが、JavaScriptが有効ではない環境を使用している場合、クラシックなコメントシステム(D1)に設定を変更する必要があります。
アレゲはアレゲを呼ぶ -- ある傍観者
学習データが間違っていたっていうだけでしょ (スコア:1)
ただ単に過去10年間のデータのうち
・履歴書データに男性が多かった
・従業員割合として男性が多い
そのため、女性を原点としたわけで別に差別的だったわけじゃなくって
学習のさせ方と学習データが間違っていた
Re: (スコア:0)
これな、よく調べたら珍名さんなど、大した意味はない少数派の人達もマイナス評価にしてるはずなんだよ
食わせたデータのせいにするのは危険だよ
Re:学習データが間違っていたっていうだけでしょ (スコア:1)
いや、氏名を評価対象にするかどうかでしょ?
履歴書に書かれているデータ、年齢、性別、経歴、資格なんかを評価させてしまった結果
男性が多い会社だから男性を優遇するAIになってしまったっていう話で
性別を削除してたんだけど「女子大」っていうだけで減点になってしまったっていうだけでの話で
学習データがそもそも偏っていたのだから偏って当たり前ですよ
Re: (スコア:0)
偏ってるのは社内制度だろ
Amazon社内で女性社員と低評価の相関が高かったからAIが因子として強く出してしまった
Re:学習データが間違っていたっていうだけでしょ (スコア:1)
いや、だから
履歴書データの殆どが男性だったっていってるじゃん・・・
そうしたら対象属性を分類していくと男性が多いわけでそうしたら男性を優先しただけ
間違った学習データを矯正することはできないからあきらめたんでしょ
女性社員の評価云々なんてどこにもかかれていない・・・
Re: (スコア:0)
募集の男女比と採用の男女比で、女性が明確に少なかった。
そしてAIの理解では、どう判断しても性別でバイアスが係ってた・・・それが事実、だから模倣した。
補足 (スコア:0)
募集の男女比と採用の男女比で、募集の比率に対して採用された女性が明確に少なかった。ね。
Re: (スコア:0)
入力に女性が少なかったから女性の点数が低くなった、という単純なものではない
> Amazon edited the programs to make them neutral to these particular terms. But that was no guarantee that the machines would not devise other ways of sorting candidates that could prove discriminatory, the people said.
結局AIが何をやっているのか誰にもわからない
AIに偏らないデータを食わせれば正しい評価を出す、かどうかは人間にはわからない
アマゾンが開発を中止したのは慎重でよい決断です
Re: (スコア:0)
> Amazonは特定の語句についてニュートラルな判定をするようプログラムを調整したが、差別的処理が行われていることを判別できない方法をAIが見つけ出さないとも限らないため、昨年初めに開発チームは解散したとのこと。
headlessのちょっと意味がわからん
差別を示してしまう候補者分類の別の方法をAIが見つけ出さないと保証できなかった