アカウント名:
パスワード:
画像認識での誤検出なんて、他にもあるだろうに、わざわざこの件が取り上げられるのに、人種差別問題の面倒臭さを感じる。
OCRの誤認識や、仮名漢字誤変換、メールフィルタの誤分類みたいな、自動処理にはつきものの誤動作でしかないな。本人がどれくらい騒いだのか知らないが、回りやメディアが些細なことを大げさに取り上げすぎる例の一つだと思う。
ソース読んでないのがバレバレなんだが、よくそんな当てずっぽうで嘯けるなそれとも本当に自分の親友が類人猿呼ばわりされてもゲラゲラ笑えるサイコパスか
だからそこが「面倒くさい」と言う話だろう。差別と言うのは意識があってこそ成り立つものだ。人工知能は何の意識も持たず、機械的に結果を出し、それが間違っていたと言うだけ。
「椅子」を「机」と誤認識したり、「犬」と「馬」と誤認識したりすることと、「黒人」を「ゴリラ」と誤った認識結果を出すことは技術的には全く同じ事。そして人工知能分野で、こういった誤認識は、まだまだあって当たり前というレベル。
それなのに「黒人→ゴリラ」の場合は人種問題が絡んできて「けしからん」「あるまじきこと」となってしまうのが、この分野に携わる技術者達にとっては「面倒なこと」に感じられるだろう。
技術者には人種差別意識は無いし、当然人工知能には「意識」と言うものさえ無い。こんなのアルファベットクッキーをばら撒いたら、偶然相手の悪口にのように並んでしまった、と言うようなもの。だれを責められると言うのか。
論点がいろいろずれてると思う。
1)技術のしょぼさは免罪符にはならないでしょう。誤認識が当たり前といった程度の技術なら、別にサービス公開しなくても社内で研究を続けていればよいところを、Googleという会社はサービス公開してビジネスにしたのだから、それに伴う責任を果たす方が「当たり前」ではないの?
2)アルファベットクッキーの例はおかしい。タグ付けは所定の条件で再現するのだから「偶然」と言えない。それに、たとえ悪口ができたのは偶然だとしても、その場合は謝罪してすぐに片付けるのがまともな対応というもので、「悪気はなかった」と言いながら相手に悪口を突き付けたまま放置することは許されない。
3)差別意識、悪気がなければ何をしてもいいというわけでもない。そこを「面倒くさい」と思うのなら、技術者として何か新しいものを世に問う資格はないと思う。
※念のため補足すると、今回はGoogleはちゃんとした対応をしていると思います。だから無理やり変な方向に擁護する必要はないんじゃないでしょうか。
Googleが(無料だからって)完成度50%未満の技術をサービス公開して、なるべく早く囲い込もうとするのはいつものこと。技術者としては呆れるばかりだが、ビジネスとしてはうまいやり方だ。
技術の完成度がどれだけ高まったとしても、人工知能でこの手のエラーを完全に排除することは難しいと思いますよ。
だから、今回Googleはクレームを受けて、以降同じようなことが起きる可能性を完全に排除するために、Gorillaのタグ付けをしないようにするという、いわば人工知能の脳外科手術をしてしまったわけです。人工知能的には一歩後退、サービス的にも、ゴリラをカテゴライズできない、ということで少し不便になりました。おそらく他の似たような「社会・政治的に不適切」反応を引き起こしそうな識別カテゴリーも、同時に停止させられるでしょう。
あまり過剰反応すると、技術の成熟を却って妨げたり、サービスを後退させてしまうことになります。
ネットであちこちの掲示板を見てみると、自分が犬や猫にカテゴライズされたとか、性別が違って認識されたとかいろいろ誤認識の話題が上がっていますが、たいていの人はそれを「機械のやったことだ」と笑い話にしているだけで、Googleにクレームつけたり、騒ぎ立てたりはしてないようです。その程度の反応が適切だと思います。
ほら面倒くさいw
俺は面倒臭いと思う。
でも、現に差別という面倒臭い問題があって、当事者たちは日々もっと面倒臭い思いをしてるんだから仕方がない。
この世が理想社会だったらよかったのだけど、あいにくそうじゃないので。
ただ、「面倒臭い」と言うと「対処しない」というニュアンスになっちゃうこともあるので、「面倒臭い」とだけ言うのは避けた方がいいかもね。(そういう配慮も面倒臭い。でもそれを言い出したら、配慮のいらない人間関係なんてないから、全ての人間関係は面倒臭い。)
だから機械に「罪」はあるのかよって話だろ。そこをハッキリさせないとそもそも「免罪」の話はできない。
もちろん、それが問題にならないように努力する「責任」はGoogleにある。ただ、それを「罪」としてはいけないだろってのが突っ込みどころ。責任と罪はイコールでは無い。
それはテキスト検索でも一緒で、特定のキーワードでエロサイトが検索結果に出てしまうことなどの問題と本質的には一緒の話であって、そこに悪意があるとは限らない。そこの「罪」とやらを追求するのであればビッグデータの機械的再利用自体が「罪」って話に発展していく。
#強欲なのか暴食なのか
悪気がなければ何をしてもいいというわけではないのは当然だが、誰だってただの悪気のない誤識別が社会問題になったら「面倒くさい」とは思うでしょもちろんちゃんと対処はするけど「面倒くさい」とは思うでしょ思わないの?すごいな
>1)技術のしょぼさは
責任ってなんだろう?一切の誤認識をさせないこと?それとも、黒人をゴリラと呼ぶケースをつぶしておくこと?それともそう呼んでしまったときに謝罪すること?
>2)アルファベットクッキーの例はおかしい。
認識精度の過程における一過的なもので、こう認識される可能性もあったし、そうでない可能性もあったって意味では「偶然」って言葉が適格だったかどうかは別にしろ、#2841175の言ってる意味に同意できる。
>「椅子」を「机」と誤認識したり、「犬」と「馬」と誤認識したりすることと、
に対して同じだけの謝罪をしなきゃいけないかって言うと、そんなことは
より多くのコメントがこの議論にあるかもしれませんが、JavaScriptが有効ではない環境を使用している場合、クラシックなコメントシステム(D1)に設定を変更する必要があります。
アレゲはアレゲを呼ぶ -- ある傍観者
誤検出なんて他にもあるだろうに・・・ (スコア:0, 荒らし)
画像認識での誤検出なんて、他にもあるだろうに、
わざわざこの件が取り上げられるのに、人種差別問題の面倒臭さを感じる。
Re: (スコア:1)
OCRの誤認識や、仮名漢字誤変換、メールフィルタの誤分類みたいな、自動処理にはつきものの誤動作でしかないな。
本人がどれくらい騒いだのか知らないが、回りやメディアが些細なことを大げさに取り上げすぎる例の一つだと思う。
Re: (スコア:0)
ソース読んでないのがバレバレなんだが、よくそんな当てずっぽうで嘯けるな
それとも本当に自分の親友が類人猿呼ばわりされてもゲラゲラ笑えるサイコパスか
Re:誤検出なんて他にもあるだろうに・・・ (スコア:0)
だからそこが「面倒くさい」と言う話だろう。
差別と言うのは意識があってこそ成り立つものだ。
人工知能は何の意識も持たず、機械的に結果を出し、それが間違っていたと言うだけ。
「椅子」を「机」と誤認識したり、「犬」と「馬」と誤認識したりすることと、
「黒人」を「ゴリラ」と誤った認識結果を出すことは技術的には全く同じ事。
そして人工知能分野で、こういった誤認識は、まだまだあって当たり前というレベル。
それなのに「黒人→ゴリラ」の場合は人種問題が絡んできて「けしからん」「あるまじきこと」
となってしまうのが、この分野に携わる技術者達にとっては「面倒なこと」に感じられるだろう。
技術者には人種差別意識は無いし、当然人工知能には「意識」と言うものさえ無い。
こんなのアルファベットクッキーをばら撒いたら、偶然相手の悪口にのように並んでしまった、と言うようなもの。
だれを責められると言うのか。
Re: (スコア:0)
論点がいろいろずれてると思う。
1)技術のしょぼさは免罪符にはならないでしょう。誤認識が当たり前といった程度の技術なら、別にサービス公開しなくても社内で研究を続けていればよいところを、Googleという会社はサービス公開してビジネスにしたのだから、それに伴う責任を果たす方が「当たり前」ではないの?
2)アルファベットクッキーの例はおかしい。タグ付けは所定の条件で再現するのだから「偶然」と言えない。それに、たとえ悪口ができたのは偶然だとしても、その場合は謝罪してすぐに片付けるのがまともな対応というもので、「悪気はなかった」と言いながら相手に悪口を突き付けたまま放置することは許されない。
3)差別意識、悪気がなければ何をしてもいいというわけでもない。そこを「面倒くさい」と思うのなら、技術者として何か新しいものを世に問う資格はないと思う。
※念のため補足すると、今回はGoogleはちゃんとした対応をしていると思います。だから無理やり変な方向に擁護する必要はないんじゃないでしょうか。
Re: (スコア:0)
Googleが(無料だからって)完成度50%未満の技術をサービス公開して、なるべく早く囲い込もうとするのはいつものこと。
技術者としては呆れるばかりだが、ビジネスとしてはうまいやり方だ。
Re: (スコア:0)
技術の完成度がどれだけ高まったとしても、人工知能でこの手のエラーを完全に排除することは難しいと思いますよ。
だから、今回Googleはクレームを受けて、以降同じようなことが起きる可能性を完全に排除するために、
Gorillaのタグ付けをしないようにするという、いわば人工知能の脳外科手術をしてしまったわけです。
人工知能的には一歩後退、サービス的にも、ゴリラをカテゴライズできない、ということで少し不便になりました。
おそらく他の似たような「社会・政治的に不適切」反応を引き起こしそうな識別カテゴリーも、同時に停止させられるでしょう。
あまり過剰反応すると、技術の成熟を却って妨げたり、サービスを後退させてしまうことになります。
ネットであちこちの掲示板を見てみると、自分が犬や猫にカテゴライズされたとか、性別が違って認識されたとか
いろいろ誤認識の話題が上がっていますが、たいていの人はそれを「機械のやったことだ」と笑い話にしているだけで、
Googleにクレームつけたり、騒ぎ立てたりはしてないようです。その程度の反応が適切だと思います。
Re: (スコア:0)
ほら面倒くさいw
Re: (スコア:0)
俺は面倒臭いと思う。
でも、現に差別という面倒臭い問題があって、当事者たちは日々もっと面倒臭い思いをしてるんだから仕方がない。
この世が理想社会だったらよかったのだけど、あいにくそうじゃないので。
ただ、「面倒臭い」と言うと「対処しない」というニュアンスになっちゃうこともあるので、「面倒臭い」とだけ言うのは避けた方がいいかもね。(そういう配慮も面倒臭い。でもそれを言い出したら、配慮のいらない人間関係なんてないから、全ての人間関係は面倒臭い。)
Re: (スコア:0)
だから機械に「罪」はあるのかよって話だろ。
そこをハッキリさせないとそもそも「免罪」の話はできない。
もちろん、それが問題にならないように努力する「責任」はGoogleにある。
ただ、それを「罪」としてはいけないだろってのが突っ込みどころ。
責任と罪はイコールでは無い。
それはテキスト検索でも一緒で、
特定のキーワードでエロサイトが検索結果に出てしまうことなどの問題と本質的には一緒の話であって、そこに悪意があるとは限らない。
そこの「罪」とやらを追求するのであればビッグデータの機械的再利用自体が「罪」って話に発展していく。
#強欲なのか暴食なのか
Re: (スコア:0)
その人達のどのような写真でも「ゴリラ」とタグ付けがされたのであれば偶然ではないでしょうけど。
アルファベットクッキーだって、綿密に条件を整えれば再現は可能ですよ。
Re: (スコア:0)
悪気がなければ何をしてもいいというわけではないのは当然だが、誰だってただの悪気のない誤識別が社会問題になったら「面倒くさい」とは思うでしょ
もちろんちゃんと対処はするけど「面倒くさい」とは思うでしょ
思わないの?すごいな
Re: (スコア:0)
>1)技術のしょぼさは
責任ってなんだろう?一切の誤認識をさせないこと?
それとも、黒人をゴリラと呼ぶケースをつぶしておくこと?
それともそう呼んでしまったときに謝罪すること?
>2)アルファベットクッキーの例はおかしい。
認識精度の過程における一過的なもので、こう認識される可能性もあったし、
そうでない可能性もあったって意味では「偶然」って言葉が適格だったか
どうかは別にしろ、#2841175の言ってる意味に同意できる。
>「椅子」を「机」と誤認識したり、「犬」と「馬」と誤認識したりすることと、
に対して同じだけの謝罪をしなきゃいけないかって言うと、そんなことは