パスワードを忘れた? アカウント作成
13888007 story
アメリカ合衆国

米民主党、IT企業が偏向したアルゴリズムを利用することを防ぐ法案を提出 94

ストーリー by hylom
検証が難しそうではある 部門より
あるAnonymous Coward曰く、

米民主党の議員たちが、IT企業などが偏向したアルゴリズムを使用することを抑止する法案を提出した(The VergeTechCrunchSlashdot)。

この法案は「Algorithmic Accountability Act(アルゴリズム説明責任法)」と呼ばれており、IT企業が使用するアルゴリズムが偏っていないか、また差別的でないか、消費者にプライバシーもしくはセキュリティ上のリスクがないかなどを適切に評価して説明することが求めるものとなっている。

このタイミングで法案提出が行われた理由としては、米住宅都市開発省が住宅広告におけるFacebookの広告ターゲティングを差別として告訴した件や、AmazonのAI人材採用システムで女性差別があった点などがきっかけの一つになっている模様。

提出されたアルゴリズム説明責任法では、大量の情報にアクセスできる大企業を対象としている。具体的には、年間5000万ドル以上の収益がある企業、少なくとも100万人以上のユーザーデータや機器に関する情報を持つ企業、主に消費者データを売買するデータブローカーとして行動する企業に適用される。

  • そりゃそうだな (スコア:3, すばらしい洞察)

    by Anonymous Coward on 2019年04月17日 7時45分 (#3600496)

    法律で禁止されている差別や追跡を「AI」をかまして正当化するような事は認められるべきじゃない。
    現状では意図しない結果のように思えるけど、禁止しないと隠れ蓑としてどこまでも行きかねない。
    特に「企業秘密」「著作権」を口実としたデータセットの秘匿が覆せなければ、外観的には明らかな事案でも証明する事は極めて難しくなる。
    起訴するには至らないレベルとかで横行しかねない。

    そもそも様々な差別禁止のルールがある人材採用にAIを使うだなんて正気とは思えん。
    それこそ記載されていない思想信条その他の要素まで既知の情報から導き出して差別を行うとか普通に起こり得るだろ。
    法令上遵守すべき項目が決まっているような状況の時にAIを使う際は、そもそも導入時に慎重になって、やるなら最新の注意を払った上で行わなければいけないでしょうに。
    「AIだからそういう事態が避けられない」とかならやるな。

    加えて人事採用の場合は人間がやる場合は落ちた理由がはっきりとは分からないのをいい事に法律上その他で許されていない差別が日常的に行われ、かつ現場の人間はそれが許されているかのように思っているという場合もある。
    AIの設計にもその感覚を持ち込んだりすれば差別の固定化であり大問題だ。
    悪い事とは言えないが、データセットを作りAIに置き換えた場合にはそうした不正が露呈するようなリスクも存在する。
    この際、AIに限らず隠蔽された不当な行為が行われていないかを再確認してもいいかもしれない。

    ここに返信
  • by manmos (29892) on 2019年04月17日 10時02分 (#3600565) 日記

    単純な二本木。

    ここに返信
  • 必要は発明の母ともいうし、偏向を防ぐ必要性を作るという意味で法制化は悪い選択肢ではないと思う。

    ただ、だからと言ってできないことを盛り込んでしまっても問題なので、偏向を防ぐために相当量の努力をするか、評価とやらで許容できるラインを実現可能なレベルに設定する必要があるだろう。
    説明責任としたのはそういう意図があってというか、現実を見ての話なんだろうかね。

    最大の難関は「偏向していないかをチェックする手段」をどうするかだろうけど、遠からず必要になる技術だし、実現できれば非常に公益性は高いはず。

    ここに返信
  • by Anonymous Coward on 2019年04月17日 7時08分 (#3600485)

    アルゴリズムの説明だと?
    数学的に偏りがないことを証明せよ、というのか?チューリング警察でも作る気か?

    ここに返信
    • by Anonymous Coward

      兵庫県警にゴールドバッハ予想を解いてもらおうとするプロジェクトがすでにあったな

    • by Anonymous Coward

      ソース嫁ではだめですかね...

    • by Anonymous Coward
      • データセットを当局に提出/一般に公開しろ。
      • データセットの作成方法を報告しろ。
      • 差別などが混ざらないようにブラインドテストのような手法でデータセットを作成しろ。
      • 問題のあるデータを除外しろ。
      • 当局が用意したデータセットを使え。もちろん費用は企業側が負担しろ。

      こんな所でいいんじゃないかな。
      アルゴリズムは説明しても仕方ないよ。

      • by Anonymous Coward

        >問題のあるデータを除外しろ。
        個性要素がどんどんスポイルされて、毒にも薬にもならない人間を高く評価するAIになったりして

    • by Anonymous Coward

      ターゲッティング広告のアルゴリズムって様々な統計データを用いて広告の可否を判断してるんだろうから
      統計の人種間、男女間の統計の偏りが差別的な判断の引き金になってる訳で、アルゴリズムに責任が有るとは思えないんだが。
      なので、これでIT企業の担当者を公聴会に呼んで問い詰めてもリベラル派の不作為があげつらわれて、ブーメランで終わるんじゃないかな。

  • 「この囲碁プログラムに序盤を少し打たせてみたら変な手ばかり打つからダメだな。やはり人間様が定石データベースを与えて教え導いてやらなければ囲碁すらまともに打てないのか」

    ここに返信
    • その場合は「最期まで戦わせてみて下さい。AIの手が悪手では無かったことが分かります。」だろ。
      イセドル戦で、全世界が納得した。実に簡単に証明できる。Googleがやりたかったのもそれだろう。

      むしろこの場合は、
      「Amazonの採用AIに履歴書見せたら、なぜか男ばっかり採用した。何故だ?」
      「利用した今までのデータが既に男女差別的だったからです。採用AIも親に似たのです。」
      という話だろ。言わせんなよはずかしい。

      「米AmazonのAIによる履歴書判定システム、男性有利な判定が判明して開発中止になっていた」 https://it.srad.jp/story/18/10/14/0523217/ [it.srad.jp]

      「アメリカで人種バイアスが入ったデータをもとに作った犯罪予測AIが人種差別的で問題だという話」 https://qiita. [qiita.com]

    • by Anonymous Coward

      「その囲碁AIは本当に必要なのか。AIにまかせてよい領域、人間がやるべき領域というのがあるのではないか」ということでは。

      人間に勝てるAIが作れるからと言って、それを普及させていいかどうかは別問題。

  • by Anonymous Coward on 2019年04月17日 7時51分 (#3600501)

    差別と機械的な区別の区別を人間側ができなきゃ無意味。
    最後は区別を人為的に打ち消す逆差別的係数が義務になるだけ。
    区別装置としてのAI(という名の評価関数)から区別能力取ると何が残るか……

    ここに返信
  • by Anonymous Coward on 2019年04月17日 8時00分 (#3600508)

    偏らないターゲティング広告って、ノンターゲッティング広告なのでは?

    ここに返信
  • by Anonymous Coward on 2019年04月17日 8時14分 (#3600513)

    今後、小学館がこんなことを書けなくなるってこと?

    ここに返信
  • 差別の原因を類推することってできないかな。
    単純な統計処理よりは鮮明に盛況する要因を浮かび上がらせることができそう。

    結果が教育格差だったら教育制度を良くするなどの改善指標にできるかもしれない。

    ここに返信
  • by Anonymous Coward on 2019年04月17日 9時49分 (#3600557)

    説明を求めた人はどうするんだろう。

    ここに返信
    • by Anonymous Coward on 2019年04月17日 12時48分 (#3600692)

      乱数の検証法は多数提案されてたはずです。

      サイコロで言うなら、十分に多い回数繰り返しサイコロを振って、
      1が出る確率は平均して約1/6。(もちろん2でも3でも6でも同じ。)
      1が出た次に1が出る確率は平均して約1/6
      1が100回繰り返し出た次に1が出る確率は平均して約1/6
      などなどを検証していけばだいたいOK。イカサマさいころ使ってればすぐバレる。

      しょせん擬似乱数ごときは周期性があるので、どこかで真の乱数とはズレが出てくるでしょう。
      #乱数の世界も奥が深い。

      普通はこういう裁判が起きるとするなら既にその疑問も出てるので、それとは違うことをいうだけで済むでしょうね。
      たとえば
      「SSRの出現率は公称0.2%なのに、実測だと0.025%だった。」
      「このアルゴリズムではこれこれなので、数学的に0.2%であります。QED」
      みたいなかんじで。

      だからアレなんかは完全にアウト。関係者は処罰されてないんかな。
      「スポーツくじ「BIG」でランダムなはずの予測結果が2連続で一致するも「偶然」との回答」 https://it.srad.jp/story/17/02/20/1619238/ [it.srad.jp]

  • by Anonymous Coward on 2019年04月17日 10時08分 (#3600569)

    平等といえば聞こえはいいが、弱者にチャンスすら与えず切り捨てて格差を固定化する結果になるだけだろう。
    実際にやっていることは基準に達していないものを足切りして切り捨てていらだけだ。
    そこには将来の可能性を信じて採用するなんていう投機的な温情採用は存在しない。

    ここに返信
typodupeerror

Stableって古いって意味だっけ? -- Debian初級

読み込み中...