米民主党、IT企業が偏向したアルゴリズムを利用することを防ぐ法案を提出 94
ストーリー by hylom
検証が難しそうではある 部門より
検証が難しそうではある 部門より
あるAnonymous Coward曰く、
米民主党の議員たちが、IT企業などが偏向したアルゴリズムを使用することを抑止する法案を提出した(The Verge、TechCrunch、Slashdot)。
この法案は「Algorithmic Accountability Act(アルゴリズム説明責任法)」と呼ばれており、IT企業が使用するアルゴリズムが偏っていないか、また差別的でないか、消費者にプライバシーもしくはセキュリティ上のリスクがないかなどを適切に評価して説明することが求めるものとなっている。
このタイミングで法案提出が行われた理由としては、米住宅都市開発省が住宅広告におけるFacebookの広告ターゲティングを差別として告訴した件や、AmazonのAI人材採用システムで女性差別があった点などがきっかけの一つになっている模様。
提出されたアルゴリズム説明責任法では、大量の情報にアクセスできる大企業を対象としている。具体的には、年間5000万ドル以上の収益がある企業、少なくとも100万人以上のユーザーデータや機器に関する情報を持つ企業、主に消費者データを売買するデータブローカーとして行動する企業に適用される。
そりゃそうだな (スコア:3, すばらしい洞察)
法律で禁止されている差別や追跡を「AI」をかまして正当化するような事は認められるべきじゃない。
現状では意図しない結果のように思えるけど、禁止しないと隠れ蓑としてどこまでも行きかねない。
特に「企業秘密」「著作権」を口実としたデータセットの秘匿が覆せなければ、外観的には明らかな事案でも証明する事は極めて難しくなる。
起訴するには至らないレベルとかで横行しかねない。
そもそも様々な差別禁止のルールがある人材採用にAIを使うだなんて正気とは思えん。
それこそ記載されていない思想信条その他の要素まで既知の情報から導き出して差別を行うとか普通に起こり得るだろ。
法令上遵守すべき項目が決まっているような状況の時にAIを使う際は、そもそも導入時に慎重になって、やるなら最新の注意を払った上で行わなければいけないでしょうに。
「AIだからそういう事態が避けられない」とかならやるな。
加えて人事採用の場合は人間がやる場合は落ちた理由がはっきりとは分からないのをいい事に法律上その他で許されていない差別が日常的に行われ、かつ現場の人間はそれが許されているかのように思っているという場合もある。
AIの設計にもその感覚を持ち込んだりすれば差別の固定化であり大問題だ。
悪い事とは言えないが、データセットを作りAIに置き換えた場合にはそうした不正が露呈するようなリスクも存在する。
この際、AIに限らず隠蔽された不当な行為が行われていないかを再確認してもいいかもしれない。
Re:そりゃそうだな (スコア:1)
それで本籍区別しないと出来ない仕事ってなにさ。
障害者雇用は下駄を履かせるって話だろうけど、一般的な雇用とは全く別の話で、
ここで取り上げてる問題と違うのはわかってるよね?
性別区別しないとできない仕事もごく一部にはあるけどさ、そういう仕事なら最初から要件に隠し,
合理的に説明するのも簡単。某医科大みたいなのはそうじゃない。
Re:そりゃそうだな (スコア:2)
かくしてどーする
偏ったアルゴリズム (スコア:2)
単純な二本木。
Re:偏ったアルゴリズム (スコア:2)
サイコロの目が常に偶数と奇数を交互に繰り返す [srad.jp]
偏向を防ぐ努力を義務化する、くらいが限界かな (スコア:1)
必要は発明の母ともいうし、偏向を防ぐ必要性を作るという意味で法制化は悪い選択肢ではないと思う。
ただ、だからと言ってできないことを盛り込んでしまっても問題なので、偏向を防ぐために相当量の努力をするか、評価とやらで許容できるラインを実現可能なレベルに設定する必要があるだろう。
説明責任としたのはそういう意図があってというか、現実を見ての話なんだろうかね。
最大の難関は「偏向していないかをチェックする手段」をどうするかだろうけど、遠からず必要になる技術だし、実現できれば非常に公益性は高いはず。
しもべは投稿を求める →スッポン放送局がくいつく →バンブラの新作が発売される
Re:偏向を防ぐ努力を義務化する、くらいが限界かな (スコア:2)
その「私はバイアスに苦しんできた。だから私の作品にはバイアスがない。私の作品を聖典として私の教えに従えばバイアスは消える。教えを広める機関を作りましょう」論法やめません?
偏向という抽象概念に努力という広範な形容を当てるよりも、まず目的を持ち挙動を観察し問題を定義し対策を立てられるようにするというのはより実効性が高い規制でしょう。ここには不偏の大権を求めるのか不偏という概念を諦めるかという抽象的な段階における大きな違いがあると思いますけど、そういうことってないですか?
Re:偏向を防ぐ努力を義務化する、くらいが限界かな (スコア:1)
「私の作品を聖典として私の教えに従えばバイアスは消える」ってのがどっから出てきたのかはよくわからんのですが、機関を作る論法ってのは何者ですかね。
個人的な意見としては以下なんですが、どこが分かりにくかったですか?
バイアスをバイアスがかかった人間が正しく検知することは不可能だけど、「クレタ人のパラドックス」のように、数学的、統計的に解決するシステムは「技術が進めば」実現可能だと思うのですよ。
ただ、現段階ではいきなり完璧なものを作れと言われても無理なので、それを実現するための技術的努力を法で義務付けるのがよろしいのではないですかね。
しもべは投稿を求める →スッポン放送局がくいつく →バンブラの新作が発売される
Re:偏向を防ぐ努力を義務化する、くらいが限界かな (スコア:2)
思想的に中立な唯一の点や線を定義して、偏向/バイアスの強弱を一次元に集約することができる、という発想が私と決定的に食い違ってるところかなと思います。私が思うにその尺度を与えるルールセットはひとつの宗教教義における密教とか神秘とかドグマとかの類であって、根拠を持ち得ないし、その教義への帰依の度合いの指標にしかならないです。
私の視点から見れば、「偏向を防ぐ」という発想は啓蒙主義に立脚していて、現代にそぐわないものです。
Re:偏向を防ぐ努力を義務化する、くらいが限界かな (スコア:1)
>思想的に中立な唯一の点や線を定義して
うん、この前提が違いますね。
ある事実に対して述べた記事が、どのようなバイアスを受けているかを調べるのに「思考的な中立基準は必要ない」ですよね。客観的に定義できる事実を排除して残した上澄みを見ればいいだけの話なので。必要なのは思考の中立ではなく、思考の余地のない事実です。
しもべは投稿を求める →スッポン放送局がくいつく →バンブラの新作が発売される
Re:偏向を防ぐ努力を義務化する、くらいが限界かな (スコア:2)
観測すら事実ではないし意見も事実ではないのにquote-unquote事実を述べた意見が中立とはこれいかに……
Re:偏向を防ぐ努力を義務化する、くらいが限界かな (スコア:1)
「中立は必要ではない」と書いたつもりでしたが、どうしてそのような結論になるのでしょうか?
しもべは投稿を求める →スッポン放送局がくいつく →バンブラの新作が発売される
Re:偏向を防ぐ努力を義務化する、くらいが限界かな (スコア:2)
思考こそ偏見であり偏見を滅亡させるため人類はなくすべきである、と仰りたい?
Re:偏向を防ぐ努力を義務化する、くらいが限界かな (スコア:1)
あのー、偏見を少しでも減らすには偏見が正しく評価出来る必要があって、その為に必要な評価規準は思考的中立ではなく、客観的事実だというだけの話なのですが……。
しもべは投稿を求める →スッポン放送局がくいつく →バンブラの新作が発売される
Re:偏向を防ぐ努力を義務化する、くらいが限界かな (スコア:2)
正しく評価
ばびょーん……
Re:偏向を防ぐ努力を義務化する、くらいが限界かな (スコア:1)
誰が、を排除するための客観的事実ですよ。
しもべは投稿を求める →スッポン放送局がくいつく →バンブラの新作が発売される
Re:偏向を防ぐ努力を義務化する、くらいが限界かな (スコア:1)
やり方次第でどうとでもなるよね。
例えば、Amazonで問題になった採用事例を考えてみるとわかる。
AIが採用基準を学習させたところ、学習元のデータがそもそも偏っていた、という話しね。
バイアスがかかっている疑いのあるパラメータをマスクしたデータを作って同じように食わせて結果を比較すれば、少なくともバイアスの有無は評価出来る。
マスクデータを作ることは、現状はコストやら技術的な問題で難しいと言うだけで、客観的事実だけを元に作成することは不可能ではないはず。
これだけで一足跳びに全てのバイアスがこれで排除できるわけではないけどね。なぜなら、マスクしてないデータにもある種のバイアスはかかっている可能性が高いから。
ただ、バイアスがあるかどうかは観測できる。
この理屈だと、多元連立方程式と同じで、パラメータが多ければそれだけの数のデータを集める必要がある。簡単なことではないし、統計的に安定した結果が出せるまでどれくらいのコストがかかるのかも素人には想像も付かないけど、専門知識を持つ人が時間と金を使って研究すれば方法は見つかると思うけどね。
しもべは投稿を求める →スッポン放送局がくいつく →バンブラの新作が発売される
Re:偏向を防ぐ努力を義務化する、くらいが限界かな (スコア:1)
>「客観的事実の集合」に「学習元のデータがそもそも偏っていた」という色を付けたのは自分だという自覚がないんでしょうね。
例に出した元の事例を知らないのかな?
実際にあってニュースにもなった話なんだけどなぁ。
しもべは投稿を求める →スッポン放送局がくいつく →バンブラの新作が発売される
Re:偏向を防ぐ努力を義務化する、くらいが限界かな (スコア:1)
その辺の解釈は方法論に影響を与えるものではなさそうだなぁ。
やっぱ有効だよね。
しもべは投稿を求める →スッポン放送局がくいつく →バンブラの新作が発売される
Re:偏向を防ぐ努力を義務化する、くらいが限界かな (スコア:1)
データの整合性をチェックする作業が客観的事実でないかったらなんだというんだろう……。
しもべは投稿を求める →スッポン放送局がくいつく →バンブラの新作が発売される
Re:偏向を防ぐ努力を義務化する、くらいが限界かな (スコア:1)
純粋に能力差だけ評価した結果と一致すれば性差によるバイアスはないと判断してもいいと思うけどね。
その結果を見て性差によるバイアスがかかっていると判断するのであれば、それはその判断自体に「能力ではなく性差でバイアスがかかっているに違いない」というバイアスがかかってるということになるよね。
しもべは投稿を求める →スッポン放送局がくいつく →バンブラの新作が発売される
Re:偏向を防ぐ努力を義務化する、くらいが限界かな (スコア:1)
元のデータ?
「判断基準に性差が出てくるような基準が採用されたという主張がなされた」という意味かな?
そういう文句を言う人が客観的にバイアスがかかっていることを証明できるデータを見つけてこないと悪魔の証明になるわけで、「言い出す人がいたらどうするか」ってのは「言い分に妥当性があるかどうか」で対応が変わってくるんじゃないかな。
同様の手法で「業務適正に必要とされる能力」を別の統計データから割り出して採用基準と比較すれば「採用基準が妥当だったか」はチェックできるよね。
それをしないで文句言うのであれば、水掛け論吹っ掛けてるだけだから門前払いするしかない。正さバイアスをかけているに違いないというバイアスで文句言ってるに過ぎないわけだからね。
しもべは投稿を求める →スッポン放送局がくいつく →バンブラの新作が発売される
Re:偏向を防ぐ努力を義務化する、くらいが限界かな (スコア:1)
>「私の作品を聖典として私の教えに従えばバイアスは消える」ってのがどっから出てきたのかはよくわからんのですが、機関を作る論法ってのは何者ですかね。
結局、ここの問いには全く答えてもらえなかったなぁ……。
いったいどんなバイアスがかかったらこんな発想が生まれるんだろうか。
しもべは投稿を求める →スッポン放送局がくいつく →バンブラの新作が発売される
Re:偏向を防ぐ努力を義務化する、くらいが限界かな (スコア:1)
>必要は発明の母ともいうし、偏向を防ぐ必要性を作るという意味で法制化は悪い選択肢ではないと思う。
企業には今以上にコンプライアンスを重要視させるくらいで良さそう。
アルゴリズムを説明させたとしても、それがそのまま実装されて常に有効なのかどうかが検証できないだろうし。
指の皺は整形手術でも取れない (スコア:0)
アルゴリズムの説明だと?
数学的に偏りがないことを証明せよ、というのか?チューリング警察でも作る気か?
Re: (スコア:0)
兵庫県警にゴールドバッハ予想を解いてもらおうとするプロジェクトがすでにあったな
Re:指の皺は整形手術でも取れない (スコア:1)
マジに逮捕されてから、それをもって証明されたとする論文でも発表すれば、イグノーベル賞くらいは狙えるかもな。
Re: (スコア:0)
ソース嫁ではだめですかね...
Re: (スコア:0)
こんな所でいいんじゃないかな。
アルゴリズムは説明しても仕方ないよ。
Re: (スコア:0)
>問題のあるデータを除外しろ。
個性要素がどんどんスポイルされて、毒にも薬にもならない人間を高く評価するAIになったりして
Re:指の皺は整形手術でも取れない (スコア:1)
人との違いを個性と見るか、差別のタネと見るかだけの違いだと思うんだけどね。
多様性多様性と言いながら、個性を差別のタネと見てりゃ没個性が高評価になるだろうよ。
Re:指の皺は整形手術でも取れない (スコア:1)
>差別を区別と言い換えても通らないものは通らない
「誰」が通さないの?
太宰治「人間失格」より
Re: (スコア:0)
ターゲッティング広告のアルゴリズムって様々な統計データを用いて広告の可否を判断してるんだろうから
統計の人種間、男女間の統計の偏りが差別的な判断の引き金になってる訳で、アルゴリズムに責任が有るとは思えないんだが。
なので、これでIT企業の担当者を公聴会に呼んで問い詰めてもリベラル派の不作為があげつらわれて、ブーメランで終わるんじゃないかな。
人間ごときにAIのアルゴリズムを適切に評価できるの? (スコア:0)
「この囲碁プログラムに序盤を少し打たせてみたら変な手ばかり打つからダメだな。やはり人間様が定石データベースを与えて教え導いてやらなければ囲碁すらまともに打てないのか」
一方米Amazonでは、採用AIが開発中止になった (スコア:0)
その場合は「最期まで戦わせてみて下さい。AIの手が悪手では無かったことが分かります。」だろ。
イセドル戦で、全世界が納得した。実に簡単に証明できる。Googleがやりたかったのもそれだろう。
むしろこの場合は、
「Amazonの採用AIに履歴書見せたら、なぜか男ばっかり採用した。何故だ?」
「利用した今までのデータが既に男女差別的だったからです。採用AIも親に似たのです。」
という話だろ。言わせんなよはずかしい。
「米AmazonのAIによる履歴書判定システム、男性有利な判定が判明して開発中止になっていた」 https://it.srad.jp/story/18/10/14/0523217/ [it.srad.jp]
「アメリカで人種バイアスが入ったデータをもとに作った犯罪予測AIが人種差別的で問題だという話」 https://qiita. [qiita.com]
Re: (スコア:0)
若い女性はそれこそ生理的に男性よりも欠勤可能な日数を多く取らなければいけないんだから、
完全に平等にしたら女性差別だよ。評価にゲタはかせないと。
はたしてそのアルゴリズムは偏向しているのかしていないのか。
Re:一方米Amazonでは、採用AIが開発中止になった (スコア:2)
生理休暇のことを言っているなら、最新の厚生労働省調査では、取得率0.9%とのことです。
Re:一方米Amazonでは、採用AIが開発中止になった (スコア:1)
そりゃ現状は平等では無いし差別もあるからね。
休めば勤務日数や実績に影響があり、休まなくてもパフォーマンスには影響が出て実績も多少落ちる。
他にも育児はともかく出産はどうしても女性にお願いしなければならないから、穴埋めや復帰しやすさをどうするかという問題もある。
Re:一方米Amazonでは、採用AIが開発中止になった (スコア:2)
下駄、ハンデキャップをどのようにどうつけるかっていうのを、
AIで判断させた場合はどうなるんでしょうね。
性別で一律設ける下駄では、性同一性障害や微妙な線、個性といったもので不公平感が出るでしょうし、
成果やアウトプットで評価するべきという意見もあるでしょうし、
難しい話です。
正解は、人々が感じる公平感と社会的合意によるのでしょうけど、
人それぞれ自分が有利になるハンデを求めるでしょうし。
Re: (スコア:0)
「その囲碁AIは本当に必要なのか。AIにまかせてよい領域、人間がやるべき領域というのがあるのではないか」ということでは。
人間に勝てるAIが作れるからと言って、それを普及させていいかどうかは別問題。
区別と区別 (スコア:0)
差別と機械的な区別の区別を人間側ができなきゃ無意味。
最後は区別を人為的に打ち消す逆差別的係数が義務になるだけ。
区別装置としてのAI(という名の評価関数)から区別能力取ると何が残るか……
ときどき間違える (スコア:0)
YouTube、誤報チェック機能がノートルダム大聖堂火災に9.11事件を関連付け。釈明は「ときどき間違える」 [engadget.com]
偏らないターゲティング広告 (スコア:0)
偏らないターゲティング広告って、ノンターゲッティング広告なのでは?
トライXで万全 (スコア:0)
今後、小学館がこんなことを書けなくなるってこと?
AIの結果と現実を比較することで差別と区別の違いや (スコア:0)
差別の原因を類推することってできないかな。
単純な統計処理よりは鮮明に盛況する要因を浮かび上がらせることができそう。
結果が教育格差だったら教育制度を良くするなどの改善指標にできるかもしれない。
Re: (スコア:0)
真実が明るみに出るのを防ぐために差別問題を利用してタブー化する
Re:AIの結果と現実を比較することで差別と区別の違いや (スコア:2)
職歴や病歴や犯罪歴や肌の色を判断に加えた方が将来活躍する人材を正確に予測できるとなった場合、どうすれば良いのか?
唐突に画面を埋め尽くすはためくマケドニア国旗の前でだみ声の未来青狸の手が自明に原理的に完璧な「イデオロギー宣託器」を呼ばわると同時にガッと掲げてですね……
アルゴリズムが実はただの乱数だったら (スコア:0)
説明を求めた人はどうするんだろう。
Re:アルゴリズムが実はただの乱数だったら (スコア:1)
乱数の検証法は多数提案されてたはずです。
サイコロで言うなら、十分に多い回数繰り返しサイコロを振って、
1が出る確率は平均して約1/6。(もちろん2でも3でも6でも同じ。)
1が出た次に1が出る確率は平均して約1/6
1が100回繰り返し出た次に1が出る確率は平均して約1/6
などなどを検証していけばだいたいOK。イカサマさいころ使ってればすぐバレる。
しょせん擬似乱数ごときは周期性があるので、どこかで真の乱数とはズレが出てくるでしょう。
#乱数の世界も奥が深い。
普通はこういう裁判が起きるとするなら既にその疑問も出てるので、それとは違うことをいうだけで済むでしょうね。
たとえば
「SSRの出現率は公称0.2%なのに、実測だと0.025%だった。」
「このアルゴリズムではこれこれなので、数学的に0.2%であります。QED」
みたいなかんじで。
だからアレなんかは完全にアウト。関係者は処罰されてないんかな。
「スポーツくじ「BIG」でランダムなはずの予測結果が2連続で一致するも「偶然」との回答」 https://it.srad.jp/story/17/02/20/1619238/ [it.srad.jp]
格差の固定化 (スコア:0)
平等といえば聞こえはいいが、弱者にチャンスすら与えず切り捨てて格差を固定化する結果になるだけだろう。
実際にやっていることは基準に達していないものを足切りして切り捨てていらだけだ。
そこには将来の可能性を信じて採用するなんていう投機的な温情採用は存在しない。