アカウント名:
パスワード:
ただ単に過去10年間のデータのうち・履歴書データに男性が多かった・従業員割合として男性が多い
そのため、女性を原点としたわけで別に差別的だったわけじゃなくって学習のさせ方と学習データが間違っていた
時には存在を無視するのも極めて重大な差別ですよ。
白人のデータだけで開発したけっか、黒人が認識できない顔認識システムなんて、「黒人を同じ人間扱いしなかった」ということを意味するわけですからね。https://srad.jp/story/10/01/06/0122212/ [srad.jp]実用面についても同じ機械を同じ金額で購入してるのに、特定の人種には利用できない欠陥品を売りつけたということで、ほとんど詐欺みたいなものだ。
今回のだと女性などデータの少ない人は採用されないという差別に繫がっている。差別的でない人事システムを作るには、老若男女に偏りのない『正しい』学習データを用意する必用があるけど、そんなものが一体この地上のどこにあるというのだろう?
「学習データが間違ってるのが悪い」と責任転嫁するのは簡単だけど、深層学習なんて学習データがあってナンボ。間違ってない実用的な学習データが存在しないとすれば、それは「人事AIは実現不可能」と言ってるのと同じことだ。だからこそAmazonは開発から手を引いたんでしょう。
「差別に繋がっている」ってその前提が間違ってると思うよ男女同数の履歴書が集まっていたのに男性ばかり採用していたわけじゃなくてそも集まった履歴書に男性のものが多かったんでしょ女性の応募数が少なかったというのは、女性のほうからその職を忌避していたことを意味するつまり女性に向かない職業だという社会的選択が働いた結果であって、それは別に「間違ったデータ」ではない男性に向いている職業に男性のほうを採用しやすくするのは正しい判定でしょうよ
その社会的選択は正しいのかって話では。女性に向かない職業と、女性に向かないと思われている職業はイコールじゃないです。
>女性に向かない職業と、女性に向かないと思われている職業はイコールじゃないです。禿げしく同意。IT企業だと、日本企業なら男女比は100対1を超えるけど、外資だとその差はもっと小さくなるらしい。男女比数百対1は女性が向かないからが理由ではないと思う。
それにそもそも応募しても女性というだけで落とされる会社には、女性も応募もしないでしょ。金と時間の無駄だもの。それだったら門戸が開かれてる会社を重点的に当たった方がずっとマシだ。
この場合は、応募者が少ないのは能力差ではなく、男女差別の結果だ。
ほら、「差別されてる」って前提でものを言ってる「女性というだけで落とされる」なんてどこに書いてあるのさ?米Amazonがそういう会社だってどう証明されたの?むしろそういう判定システムじゃ駄目だからって開発中止してるくらいなのに
女性に向かない職業と、女性に向かないと思われている職業はイコールじゃなくても10年分のデータから、女性が自らの意思で応募してこないという事実が浮かび上がってるわけだよそれが社会的選択として正しくないというなら、そう証明しなきゃいけないよ「差別されてる」という結論ありきで理屈を組み立てるんじゃなくてね
残念ながら日本のIT企業は選ぶ立場ではなく選んでもらう立場なんです男だってできれば外資に行きたいよ
それだったら、サンプルを男女同数にすればよいだけ。多分そうではなく、同一スペックでの男女を見比べた時、男性の方が優位な結果の教師ありデータしか作れなそうというのが問題だったんではないかと推測される。
更に、女性向け職業や男性向け職業という形がどうしても残っているので、性別のパラメータを削除するのも叶わなかったんじゃなかろうか。
と推測しているけど…いずれにせよ、なんでそうなったか詳しい情報がほしいな。言ったそばから否定するようだけど、推測だけじゃ実際の問題がどこにあったのか分からん。
より多くのコメントがこの議論にあるかもしれませんが、JavaScriptが有効ではない環境を使用している場合、クラシックなコメントシステム(D1)に設定を変更する必要があります。
一つのことを行い、またそれをうまくやるプログラムを書け -- Malcolm Douglas McIlroy
学習データが間違っていたっていうだけでしょ (スコア:1)
ただ単に過去10年間のデータのうち
・履歴書データに男性が多かった
・従業員割合として男性が多い
そのため、女性を原点としたわけで別に差別的だったわけじゃなくって
学習のさせ方と学習データが間違っていた
Re:学習データが間違っていたっていうだけでしょ (スコア:0)
時には存在を無視するのも極めて重大な差別ですよ。
白人のデータだけで開発したけっか、黒人が認識できない顔認識システムなんて、
「黒人を同じ人間扱いしなかった」ということを意味するわけですからね。
https://srad.jp/story/10/01/06/0122212/ [srad.jp]
実用面についても同じ機械を同じ金額で購入してるのに、特定の人種には利用できない
欠陥品を売りつけたということで、ほとんど詐欺みたいなものだ。
今回のだと女性などデータの少ない人は採用されないという差別に繫がっている。
差別的でない人事システムを作るには、老若男女に偏りのない『正しい』学習データを
用意する必用があるけど、そんなものが一体この地上のどこにあるというのだろう?
「学習データが間違ってるのが悪い」と責任転嫁するのは簡単だけど、深層学習なんて
学習データがあってナンボ。間違ってない実用的な学習データが存在しないとすれば、
それは「人事AIは実現不可能」と言ってるのと同じことだ。
だからこそAmazonは開発から手を引いたんでしょう。
Re:学習データが間違っていたっていうだけでしょ (スコア:1)
「差別に繋がっている」ってその前提が間違ってると思うよ
男女同数の履歴書が集まっていたのに男性ばかり採用していたわけじゃなくて
そも集まった履歴書に男性のものが多かったんでしょ
女性の応募数が少なかったというのは、女性のほうからその職を忌避していたことを意味する
つまり女性に向かない職業だという社会的選択が働いた結果であって、それは別に「間違ったデータ」ではない
男性に向いている職業に男性のほうを採用しやすくするのは正しい判定でしょうよ
Re: (スコア:0)
その社会的選択は正しいのかって話では。
女性に向かない職業と、女性に向かないと思われている職業はイコールじゃないです。
Re: (スコア:0)
>女性に向かない職業と、女性に向かないと思われている職業はイコールじゃないです。
禿げしく同意。
IT企業だと、日本企業なら男女比は100対1を超えるけど、外資だとその差はもっと小さくなるらしい。
男女比数百対1は女性が向かないからが理由ではないと思う。
それにそもそも応募しても女性というだけで落とされる会社には、女性も応募もしないでしょ。
金と時間の無駄だもの。それだったら門戸が開かれてる会社を重点的に当たった方がずっとマシだ。
この場合は、応募者が少ないのは能力差ではなく、男女差別の結果だ。
Re: (スコア:0)
ほら、「差別されてる」って前提でものを言ってる
「女性というだけで落とされる」なんてどこに書いてあるのさ?
米Amazonがそういう会社だってどう証明されたの?
むしろそういう判定システムじゃ駄目だからって開発中止してるくらいなのに
女性に向かない職業と、女性に向かないと思われている職業はイコールじゃなくても
10年分のデータから、女性が自らの意思で応募してこないという事実が浮かび上がってるわけだよ
それが社会的選択として正しくないというなら、そう証明しなきゃいけないよ
「差別されてる」という結論ありきで理屈を組み立てるんじゃなくてね
Re: (スコア:0)
残念ながら日本のIT企業は選ぶ立場ではなく選んでもらう立場なんです
男だってできれば外資に行きたいよ
Re: (スコア:0)
それだったら、サンプルを男女同数にすればよいだけ。
多分そうではなく、同一スペックでの男女を見比べた時、男性の方が優位な結果の教師ありデータしか作れなそうというのが問題だったんではないかと推測される。
更に、女性向け職業や男性向け職業という形がどうしても残っているので、性別のパラメータを削除するのも叶わなかったんじゃなかろうか。
と推測しているけど…
いずれにせよ、なんでそうなったか詳しい情報がほしいな。
言ったそばから否定するようだけど、推測だけじゃ実際の問題がどこにあったのか分からん。