アカウント名:
パスワード:
画像認識での誤検出なんて、他にもあるだろうに、わざわざこの件が取り上げられるのに、人種差別問題の面倒臭さを感じる。
OCRの誤認識や、仮名漢字誤変換、メールフィルタの誤分類みたいな、自動処理にはつきものの誤動作でしかないな。本人がどれくらい騒いだのか知らないが、回りやメディアが些細なことを大げさに取り上げすぎる例の一つだと思う。
ソース読んでないのがバレバレなんだが、よくそんな当てずっぽうで嘯けるなそれとも本当に自分の親友が類人猿呼ばわりされてもゲラゲラ笑えるサイコパスか
だからそこが「面倒くさい」と言う話だろう。差別と言うのは意識があってこそ成り立つものだ。人工知能は何の意識も持たず、機械的に結果を出し、それが間違っていたと言うだけ。
「椅子」を「机」と誤認識したり、「犬」と「馬」と誤認識したりすることと、「黒人」を「ゴリラ」と誤った認識結果を出すことは技術的には全く同じ事。そして人工知能分野で、こういった誤認識は、まだまだあって当たり前というレベル。
それなのに「黒人→ゴリラ」の場合は人種問題が絡んできて「けしからん」「あるまじきこと」となってしまうのが、この分野に携わる技術者達にとっては「面倒なこと」に感じられるだろう。
技術者には人種差別意識は無いし、当然人工知能には「意識」と言うものさえ無い。こんなのアルファベットクッキーをばら撒いたら、偶然相手の悪口にのように並んでしまった、と言うようなもの。だれを責められると言うのか。
論点がいろいろずれてると思う。
1)技術のしょぼさは免罪符にはならないでしょう。誤認識が当たり前といった程度の技術なら、別にサービス公開しなくても社内で研究を続けていればよいところを、Googleという会社はサービス公開してビジネスにしたのだから、それに伴う責任を果たす方が「当たり前」ではないの?
2)アルファベットクッキーの例はおかしい。タグ付けは所定の条件で再現するのだから「偶然」と言えない。それに、たとえ悪口ができたのは偶然だとしても、その場合は謝罪してすぐに片付けるのがまともな対応というもので、「悪気はなかった」と言いながら相手に悪口を突き付けたまま放置することは許されない。
3)差別意識、悪気がなければ何をしてもいいというわけでもない。そこを「面倒くさい」と思うのなら、技術者として何か新しいものを世に問う資格はないと思う。
※念のため補足すると、今回はGoogleはちゃんとした対応をしていると思います。だから無理やり変な方向に擁護する必要はないんじゃないでしょうか。
Googleが(無料だからって)完成度50%未満の技術をサービス公開して、なるべく早く囲い込もうとするのはいつものこと。技術者としては呆れるばかりだが、ビジネスとしてはうまいやり方だ。
技術の完成度がどれだけ高まったとしても、人工知能でこの手のエラーを完全に排除することは難しいと思いますよ。
だから、今回Googleはクレームを受けて、以降同じようなことが起きる可能性を完全に排除するために、Gorillaのタグ付けをしないようにするという、いわば人工知能の脳外科手術をしてしまったわけです。人工知能的には一歩後退、サービス的にも、ゴリラをカテゴライズできない、ということで少し不便になりました。おそらく他の似たような「社会・政治的に不適切」反応を引き起こしそうな識別カテゴリーも、同時に停止させられるでしょう。
あまり過剰反応すると、技術の成熟を却って妨げたり、サービスを後退させてしまうことになります。
ネットであちこちの掲示板を見てみると、自分が犬や猫にカテゴライズされたとか、性別が違って認識されたとかいろいろ誤認識の話題が上がっていますが、たいていの人はそれを「機械のやったことだ」と笑い話にしているだけで、Googleにクレームつけたり、騒ぎ立てたりはしてないようです。その程度の反応が適切だと思います。
ほら面倒くさいw
俺は面倒臭いと思う。
でも、現に差別という面倒臭い問題があって、当事者たちは日々もっと面倒臭い思いをしてるんだから仕方がない。
この世が理想社会だったらよかったのだけど、あいにくそうじゃないので。
ただ、「面倒臭い」と言うと「対処しない」というニュアンスになっちゃうこともあるので、「面倒臭い」とだけ言うのは避けた方がいいかもね。(そういう配慮も面倒臭い。でもそれを言い出したら、配慮のいらない人間関係なんてないから、全ての人間関係は面倒臭い。)
だから機械に「罪」はあるのかよって話だろ。そこをハッキリさせないとそもそも「免罪」の話はできない。
もちろん、それが問題にならないように努力する「責任」はGoogleにある。ただ、それを「罪」としてはいけないだろってのが突っ込みどころ。責任と罪はイコールでは無い。
それはテキスト検索でも一緒で、特定のキーワードでエロサイトが検索結果に出てしまうことなどの問題と本質的には一緒の話であって、そこに悪意があるとは限らない。そこの「罪」とやらを追求するのであればビッグデータの機械的再利用自体が「罪」って話に発展していく。
#強欲なのか暴食なのか
悪気がなければ何をしてもいいというわけではないのは当然だが、誰だってただの悪気のない誤識別が社会問題になったら「面倒くさい」とは思うでしょもちろんちゃんと対処はするけど「面倒くさい」とは思うでしょ思わないの?すごいな
>1)技術のしょぼさは
責任ってなんだろう?一切の誤認識をさせないこと?それとも、黒人をゴリラと呼ぶケースをつぶしておくこと?それともそう呼んでしまったときに謝罪すること?
>2)アルファベットクッキーの例はおかしい。
認識精度の過程における一過的なもので、こう認識される可能性もあったし、そうでない可能性もあったって意味では「偶然」って言葉が適格だったかどうかは別にしろ、#2841175の言ってる意味に同意できる。
>「椅子」を「机」と誤認識したり、「犬」と「馬」と誤認識したりすることと、
に対して同じだけの謝罪をしなきゃいけないかって言うと、そんなことは
友人だったらそれこそ「ちょwおまえゴリラだってよ、Google空気読みすぎwww」って速攻ツイートだろ。
で、誰がゴリラ認識されるか探す遊びを始める。
その辺は日本人はノリが軽いというか良くも悪くも無神経な所はある。
呼ばわりってのがそもそも差別意識ある。たかが機械のやる事に敏感すぎる。でも、世界的にはそのくらいの緊張感がスタンダードなんだよな。
白人が同じようにゴリラ扱いされてる写真でもあれば笑い話で済んだのかも知れませんが、黒人だけがゴリラというかサル扱いされてるのは矢張りまずいでしょう。
国内に差別問題など無いと嘯いているイエローモンキーには理解のできない事でしょうが、差別する対象をサル扱いするのは差別主義者の常套手段なので、これに対して怒りを表明するのは当然ですし、直ちに謝罪するGoogleも自然だと思います。
ネットにはチンパンジーをブッシュとして掲載した写真が多いので機械学習にネットを使うとAIはブッシュ=チンパンジーと誤解するかもしれません。
誤認識も含めて理解して道具を使えるのが人ですよね。それを理解できないで、道具に使われてるのは人?
道具に使われるっていうのは、面と向かって機械にゴリラと呼ばれても何も思わなくなるよう自己暗示をかけるとか、そういうことじゃないの?トラブルの原因を人の感覚の歪みに押し込めようとするのは、道具への無根拠な信仰じゃないの?
そうではなくて、たかが機械が行った判断を絶対視(少なくとも過剰に重視)するよう行動が「道具に使われている」ということでしょう。道具の誤判断(測定器の測定値のエラーや、通信機の受信エラー、記憶素子の読み取りエラーも本質的には同じこと)の可能性を理解したうえで道具や使うのが望ましい使い方だと思います。
Twitterには馬に誤判定された人がいましたよ。
アルピノの白いゴリラは実在するけど、ゴリラとしては一般的ではないよ。白いゴリラが一般的なら白人がゴリラと誤判定されることもあったかもしれない。
だが、ゴリラは色が黒いのが普通。そして、肌や髪の毛の色が黒い人はゴリラと色的に共通点がある。それをアルゴリズム的にゴリラと判定されたから人種差別問題に結びつけてしまうのが異常。
ところで友人がゴリラとタグ付けされた人は本当に怒ってるんだろうか?怒ってるとして、ゴリラとタグ付けされた友人の写真を広く公開しちゃったりするんだろうか?その場合、友人も怒ってるんだろうか?怒ってるとしたら、その友人は誰に対して怒ってるだろう?
実際、面白いことが起きた、笑い話としてツイートしただけじゃないかな。それを他の第三者が人種差別といいだしたと。
あなたは、これが故意に行われたもので無いという証拠をお持ちですか?
公式謝罪は妥当な対応だろうね。
「黒人を…」っていうニュースの取り上げ方がそもそも差別的なんだよな。政治的に正しくは「人間をゴリラと誤認識した」というニュースにすべき。
それ単に雑なだけだろ。差別的な問題を取り上げるのに差別性をボカしてどうすんだよ
だから差別的だって言ってるんだが…ゴリラなの?
お前日本語読めないのになんでレスしようと思ったの?
白人がシロクマと誤認識されたのならこんなに問題にならないだろうつまり差別的なのはグーグルではなくわれわれ自身だが、それを恥じ入らずに他人を攻撃するとはなんとも見下げはてたふるまいである
Never attribute to malice that which is adequately explained by stupidity.無能で十分説明されることに悪意を見出すな
https://ja.wikipedia.org/wiki/%E3%83%8F%E3%83%B3%E3%83%AD%E3%83%B3%E3%... [wikipedia.org]
サービス提供者の単なる不注意で説明できることに、人種差別的な悪意、故意を見出しているひとが多くいるようだ。他のコメントにあるような、「故意に行われたのでないなら証拠を出せ」だなんて、この考え方の典型的なものだ。そのような考え方で誰かを批判したり攻撃しても、人種差別の解消には貢献しないどころか、新たな差別の種になるだけだ。
> サービス提供者の単なる不注意で説明できることに、人種差別的な悪意、故意を見出しているひとが多くいるようだ。> 他のコメントにあるような、「故意に行われたのでないなら証拠を出せ」だなんて、この考え方の典型的なものだ。
すみません、どのコメントのことでしょうか。
ざっとコメント全体を読んだところ、大雑把には、「自動判別で悪意はないのだから問題ない(問題にするべきではない)」という意見と、「自動判別で悪意はないのは確かだが修正・謝罪すべき(実際にそうしたGoogleは適切だ)」という意見に分かれるように見えました。悪意を見いだしたコメントはなかったように思いますし、悪意がないなら証拠を出せと言うコメントもなかったように思います。
見落としがあるかもしれませんが、すくなくとも、「多くいる」とは言えないと思います。
そもそもの問題の当事者の、"Google Photos, y'all f***ed up..."から始まる一連のツイート [twitter.com]が、Googleでの開発においてレイシズム的な要素があった(んじゃないの)と主張しているように読めるけど。
悪意を見いだしたコメントはなかった
サービス提供者に故意や悪意を見出しているもの:
開発者の本音が (スコア:0)by Anonymous Coward on 2015年07月02日 22時26分 (#2841083)結果に出たな
Re:誤検出なんて他にもあるだろうに・・・ (スコア:1)by firewheel (31280) on 2015年07月02日 22時09分 (#2841073)あなたは、これが故意に行われたもので無いという証拠をお持ちですか?公式謝罪は妥当な対応だろうね。
Re:誤検出なんて他にもあるだろうに・・・ (スコア:1)by firewheel (31280) on 2015年07月02日 22時09分 (#2841073)あなたは、これが故意に行われたもので無いという証拠をお持ちですか?
Re:誤検出なんて他にもあるだろうに・・・ (スコア:0)by Anonymous Coward on 2015年07月03日 3時15分 (#2841163)それ単に雑なだけだろ。差別的な問題を取り上げるのに差別性をボカしてどうすんだよ
90以上のコメントがある中のたかだか3つを、文意をこじつけまくった上で勝ち誇るとか、ええ…… (困惑)
#2841083 とかスラドによくいる下衆気取りのモデ乞食にしか見えない。#2841163 は書いたの俺だしこれで「Google が故意にやったと思ってる!」とか認定されるの意味分からんので落ち着いて論理的に話してくれない?
> また、以下のコメントが指摘している通り
「差別だと感じる奴が差別的なんだ (キリッ」と嘯いてるだけのコメをずらずら並べられましても。対偶とってもせいぜい「差別的でない人間 (自分たち) は差別性を感じない」とか夜郎自大にしかならんのだけど何が言いたいのさ?
判定したのが、プログラムなのか、人なのか、ハトなのかは関係ない。「グーグルが」黒人の写真をゴリラと判定した。ここが問題点。
Google Glass は尻すぼみになってよかったんかもしれんね。#誤解による争いを世界に撒き散らす可能性があった
同意。実にくだらんね。
その程度の誤検出は十分にあり得る話で、嫌なら自動でタグがつくサービスなんて使わなきゃいい。
私はGoogleが嫌いだが、タダでGoogle使いながらそれに文句言うやつはどうかしてると思う。
元コメに「同意」って言ってるけど、元コメ理解できてないでしょ。
単に精度が低いだけなら、あなたの言うとおり「嫌なら自動でタグがつくサービスなんて使わなきゃいい」で済むけど、そうじゃなくて、元コメが「わざわざこの件が取り上げられるのに、人種差別問題の面倒臭さを感じる」と言っている通り、人種差別が絡んできていることでややこしくなっているのであって、それは単純に「使わなきゃいい」で済ませることはできない。「タダで使っているくせに文句言うな」なんてのもまったくの的外れだ。
嫌な奴は使わなきゃいいだけなのに人種差別とかどうでもいいことで騒ぐ馬鹿がいてめんどくせーなってことじゃないのかな。
なんにせよ、ここには相手の心を読む超能力者が多くいるようだ。
> 人種差別とかどうでもいいこと
人種差別を「どうでもいいこと」「面倒臭い」と言えるのは、単にあなたが幸運なだけです。
実際どうでもいいんだよ全世界の人間が人種差別なんてどうでもよくなったら差別なんて無くなる
ほんと、どうでもいい。人種差別なんてあってもなくてもどっちでもいい。
人種差別をなくそうとする連中を見るとめんどくせー奴だな、と思う。人種差別をわざわざ広げようとするやつも同じだが。
>全世界の人間が人種差別なんてどうでもよくなったら差別なんて無くなる
そういうのを脳内お花畑って言うんでしょうね。
脳内お花畑なのはお前の方だろ
それ以前に差別がなくなる必要なんてどこにもないわな。
自民党員かな?
> 人種差別を「どうでもいいこと」「面倒臭い」と言えるのは、単にあなたが幸運なだけです。
で、実際今回の誤判定は人種差別だったんですか?
> わざわざこの件が取り上げられるのに、人種差別問題の面倒臭さを感じる。
人の気持ちですから、面倒くさいのは仕方がありません。
たとえば何年間も毎日毎日、同級生から「ゴリラ」と言われていじめられ続けて精神が疲弊している人に向かって、悪意がなくても(たとえばテレビにゴリラが映っているのを見て)「ゴリラ」と言えばその人をどんな気持ちにさせるか。生まれてこのかた、何の差別もいじめも受けてこなかった人にとっては、それを想像するのは確かに面倒くさいことかもしれません。
面倒くささ、つまりコストは差別をしてきた人が負うべきでしょうが、そんなことは現実的ではないので、社会全体で負っていくしかありません。黒人差別をしたことがない人にとって、そのコストだけを負わなきゃいけないのは不満かもしれませんが、それは仕方がありません。
だったらそれはゴリラに間違われて傷ついたから謝れと言うべきであり、黒人とゴリラを見分けられないのは差別だから謝れというのは間違いなのではないかと思うのです。そこが人の感情の面倒臭いところなんでしょうな。
より多くのコメントがこの議論にあるかもしれませんが、JavaScriptが有効ではない環境を使用している場合、クラシックなコメントシステム(D1)に設定を変更する必要があります。
人生の大半の問題はスルー力で解決する -- スルー力研究専門家
誤検出なんて他にもあるだろうに・・・ (スコア:0, 荒らし)
画像認識での誤検出なんて、他にもあるだろうに、
わざわざこの件が取り上げられるのに、人種差別問題の面倒臭さを感じる。
Re:誤検出なんて他にもあるだろうに・・・ (スコア:1)
OCRの誤認識や、仮名漢字誤変換、メールフィルタの誤分類みたいな、自動処理にはつきものの誤動作でしかないな。
本人がどれくらい騒いだのか知らないが、回りやメディアが些細なことを大げさに取り上げすぎる例の一つだと思う。
Re: (スコア:0)
ソース読んでないのがバレバレなんだが、よくそんな当てずっぽうで嘯けるな
それとも本当に自分の親友が類人猿呼ばわりされてもゲラゲラ笑えるサイコパスか
Re: (スコア:0)
だからそこが「面倒くさい」と言う話だろう。
差別と言うのは意識があってこそ成り立つものだ。
人工知能は何の意識も持たず、機械的に結果を出し、それが間違っていたと言うだけ。
「椅子」を「机」と誤認識したり、「犬」と「馬」と誤認識したりすることと、
「黒人」を「ゴリラ」と誤った認識結果を出すことは技術的には全く同じ事。
そして人工知能分野で、こういった誤認識は、まだまだあって当たり前というレベル。
それなのに「黒人→ゴリラ」の場合は人種問題が絡んできて「けしからん」「あるまじきこと」
となってしまうのが、この分野に携わる技術者達にとっては「面倒なこと」に感じられるだろう。
技術者には人種差別意識は無いし、当然人工知能には「意識」と言うものさえ無い。
こんなのアルファベットクッキーをばら撒いたら、偶然相手の悪口にのように並んでしまった、と言うようなもの。
だれを責められると言うのか。
Re: (スコア:0)
論点がいろいろずれてると思う。
1)技術のしょぼさは免罪符にはならないでしょう。誤認識が当たり前といった程度の技術なら、別にサービス公開しなくても社内で研究を続けていればよいところを、Googleという会社はサービス公開してビジネスにしたのだから、それに伴う責任を果たす方が「当たり前」ではないの?
2)アルファベットクッキーの例はおかしい。タグ付けは所定の条件で再現するのだから「偶然」と言えない。それに、たとえ悪口ができたのは偶然だとしても、その場合は謝罪してすぐに片付けるのがまともな対応というもので、「悪気はなかった」と言いながら相手に悪口を突き付けたまま放置することは許されない。
3)差別意識、悪気がなければ何をしてもいいというわけでもない。そこを「面倒くさい」と思うのなら、技術者として何か新しいものを世に問う資格はないと思う。
※念のため補足すると、今回はGoogleはちゃんとした対応をしていると思います。だから無理やり変な方向に擁護する必要はないんじゃないでしょうか。
Re: (スコア:0)
Googleが(無料だからって)完成度50%未満の技術をサービス公開して、なるべく早く囲い込もうとするのはいつものこと。
技術者としては呆れるばかりだが、ビジネスとしてはうまいやり方だ。
Re: (スコア:0)
技術の完成度がどれだけ高まったとしても、人工知能でこの手のエラーを完全に排除することは難しいと思いますよ。
だから、今回Googleはクレームを受けて、以降同じようなことが起きる可能性を完全に排除するために、
Gorillaのタグ付けをしないようにするという、いわば人工知能の脳外科手術をしてしまったわけです。
人工知能的には一歩後退、サービス的にも、ゴリラをカテゴライズできない、ということで少し不便になりました。
おそらく他の似たような「社会・政治的に不適切」反応を引き起こしそうな識別カテゴリーも、同時に停止させられるでしょう。
あまり過剰反応すると、技術の成熟を却って妨げたり、サービスを後退させてしまうことになります。
ネットであちこちの掲示板を見てみると、自分が犬や猫にカテゴライズされたとか、性別が違って認識されたとか
いろいろ誤認識の話題が上がっていますが、たいていの人はそれを「機械のやったことだ」と笑い話にしているだけで、
Googleにクレームつけたり、騒ぎ立てたりはしてないようです。その程度の反応が適切だと思います。
Re: (スコア:0)
ほら面倒くさいw
Re: (スコア:0)
俺は面倒臭いと思う。
でも、現に差別という面倒臭い問題があって、当事者たちは日々もっと面倒臭い思いをしてるんだから仕方がない。
この世が理想社会だったらよかったのだけど、あいにくそうじゃないので。
ただ、「面倒臭い」と言うと「対処しない」というニュアンスになっちゃうこともあるので、「面倒臭い」とだけ言うのは避けた方がいいかもね。(そういう配慮も面倒臭い。でもそれを言い出したら、配慮のいらない人間関係なんてないから、全ての人間関係は面倒臭い。)
Re: (スコア:0)
だから機械に「罪」はあるのかよって話だろ。
そこをハッキリさせないとそもそも「免罪」の話はできない。
もちろん、それが問題にならないように努力する「責任」はGoogleにある。
ただ、それを「罪」としてはいけないだろってのが突っ込みどころ。
責任と罪はイコールでは無い。
それはテキスト検索でも一緒で、
特定のキーワードでエロサイトが検索結果に出てしまうことなどの問題と本質的には一緒の話であって、そこに悪意があるとは限らない。
そこの「罪」とやらを追求するのであればビッグデータの機械的再利用自体が「罪」って話に発展していく。
#強欲なのか暴食なのか
Re: (スコア:0)
その人達のどのような写真でも「ゴリラ」とタグ付けがされたのであれば偶然ではないでしょうけど。
アルファベットクッキーだって、綿密に条件を整えれば再現は可能ですよ。
Re: (スコア:0)
悪気がなければ何をしてもいいというわけではないのは当然だが、誰だってただの悪気のない誤識別が社会問題になったら「面倒くさい」とは思うでしょ
もちろんちゃんと対処はするけど「面倒くさい」とは思うでしょ
思わないの?すごいな
Re: (スコア:0)
>1)技術のしょぼさは
責任ってなんだろう?一切の誤認識をさせないこと?
それとも、黒人をゴリラと呼ぶケースをつぶしておくこと?
それともそう呼んでしまったときに謝罪すること?
>2)アルファベットクッキーの例はおかしい。
認識精度の過程における一過的なもので、こう認識される可能性もあったし、
そうでない可能性もあったって意味では「偶然」って言葉が適格だったか
どうかは別にしろ、#2841175の言ってる意味に同意できる。
>「椅子」を「机」と誤認識したり、「犬」と「馬」と誤認識したりすることと、
に対して同じだけの謝罪をしなきゃいけないかって言うと、そんなことは
Re: (スコア:0)
友人だったらそれこそ
「ちょwおまえゴリラだってよ、Google空気読みすぎwww」
って速攻ツイートだろ。
で、誰がゴリラ認識されるか探す遊びを始める。
その辺は日本人はノリが軽いというか良くも悪くも無神経な所はある。
呼ばわりってのがそもそも差別意識ある。
たかが機械のやる事に敏感すぎる。
でも、世界的にはそのくらいの緊張感がスタンダードなんだよな。
Re:誤検出なんて他にもあるだろうに・・・ (スコア:1)
白人が同じようにゴリラ扱いされてる写真でもあれば笑い話で済んだのかも知れませんが、
黒人だけがゴリラというかサル扱いされてるのは矢張りまずいでしょう。
国内に差別問題など無いと嘯いているイエローモンキーには理解のできない事でしょうが、
差別する対象をサル扱いするのは差別主義者の常套手段なので、
これに対して怒りを表明するのは当然ですし、直ちに謝罪するGoogleも自然だと思います。
Re:誤検出なんて他にもあるだろうに・・・ (スコア:1)
Re: (スコア:0)
ネットにはチンパンジーをブッシュとして掲載した写真が多いので機械学習にネットを使うとAIはブッシュ=チンパンジーと誤解するかもしれません。
Re: (スコア:0)
誤認識も含めて理解して道具を使えるのが人ですよね。
それを理解できないで、道具に使われてるのは人?
Re: (スコア:0)
道具に使われるっていうのは、面と向かって機械にゴリラと呼ばれても何も思わなくなるよう自己暗示をかけるとか、そういうことじゃないの?
トラブルの原因を人の感覚の歪みに押し込めようとするのは、道具への無根拠な信仰じゃないの?
Re: (スコア:0)
そうではなくて、たかが機械が行った判断を絶対視(少なくとも過剰に重視)するよう行動が「道具に使われている」ということでしょう。
道具の誤判断(測定器の測定値のエラーや、通信機の受信エラー、記憶素子の読み取りエラーも本質的には同じこと)の可能性を理解したうえで道具や使うのが望ましい使い方だと思います。
Re: (スコア:0)
Twitterには馬に誤判定された人がいましたよ。
Re: (スコア:0)
Re: (スコア:0)
アルピノの白いゴリラは実在するけど、ゴリラとしては一般的ではないよ。
白いゴリラが一般的なら白人がゴリラと誤判定されることもあったかもしれない。
だが、ゴリラは色が黒いのが普通。
そして、肌や髪の毛の色が黒い人はゴリラと色的に共通点がある。
それをアルゴリズム的にゴリラと判定されたから人種差別問題に結びつけてしまうのが異常。
ところで友人がゴリラとタグ付けされた人は本当に怒ってるんだろうか?
怒ってるとして、ゴリラとタグ付けされた友人の写真を広く公開しちゃったりするんだろうか?
その場合、友人も怒ってるんだろうか?
怒ってるとしたら、その友人は誰に対して怒ってるだろう?
実際、面白いことが起きた、笑い話としてツイートしただけじゃないかな。
それを他の第三者が人種差別といいだしたと。
Re:誤検出なんて他にもあるだろうに・・・ (スコア:1)
あなたは、これが故意に行われたもので無いという証拠をお持ちですか?
公式謝罪は妥当な対応だろうね。
Re:誤検出なんて他にもあるだろうに・・・ (スコア:1)
「黒人を…」っていうニュースの取り上げ方がそもそも差別的なんだよな。
政治的に正しくは「人間をゴリラと誤認識した」というニュースにすべき。
Re: (スコア:0)
それ単に雑なだけだろ。差別的な問題を取り上げるのに差別性をボカしてどうすんだよ
Re: (スコア:0)
だから差別的だって言ってるんだが…
ゴリラなの?
Re: (スコア:0)
お前日本語読めないのになんでレスしようと思ったの?
Re: (スコア:0)
白人がシロクマと誤認識されたのならこんなに問題にならないだろう
つまり差別的なのはグーグルではなくわれわれ自身だが、それを恥じ入らずに他人を攻撃するとはなんとも見下げはてたふるまいである
ハンロンの剃刀 (スコア:1)
https://ja.wikipedia.org/wiki/%E3%83%8F%E3%83%B3%E3%83%AD%E3%83%B3%E3%... [wikipedia.org]
サービス提供者の単なる不注意で説明できることに、人種差別的な悪意、故意を見出しているひとが多くいるようだ。
他のコメントにあるような、「故意に行われたのでないなら証拠を出せ」だなんて、この考え方の典型的なものだ。
そのような考え方で誰かを批判したり攻撃しても、人種差別の解消には貢献しないどころか、新たな差別の種になるだけだ。
Re: (スコア:0)
> サービス提供者の単なる不注意で説明できることに、人種差別的な悪意、故意を見出しているひとが多くいるようだ。
> 他のコメントにあるような、「故意に行われたのでないなら証拠を出せ」だなんて、この考え方の典型的なものだ。
すみません、どのコメントのことでしょうか。
ざっとコメント全体を読んだところ、大雑把には、「自動判別で悪意はないのだから問題ない(問題にするべきではない)」という意見と、「自動判別で悪意はないのは確かだが修正・謝罪すべき(実際にそうしたGoogleは適切だ)」という意見に分かれるように見えました。悪意を見いだしたコメントはなかったように思いますし、悪意がないなら証拠を出せと言うコメントもなかったように思います。
見落としがあるかもしれませんが、すくなくとも、「多くいる」とは言えないと思います。
Re: (スコア:0)
そもそもの問題の当事者の、"Google Photos, y'all f***ed up..."から始まる一連のツイート [twitter.com]が、
Googleでの開発においてレイシズム的な要素があった(んじゃないの)と主張しているように読めるけど。
Re: (スコア:0)
サービス提供者に故意や悪意を見出しているもの:
Re: (スコア:0)
90以上のコメントがある中のたかだか3つを、文意をこじつけまくった上で勝ち誇るとか、ええ…… (困惑)
#2841083 とかスラドによくいる下衆気取りのモデ乞食にしか見えない。#2841163 は書いたの俺だしこれで「Google が故意にやったと思ってる!」とか認定されるの意味分からんので落ち着いて論理的に話してくれない?
> また、以下のコメントが指摘している通り
「差別だと感じる奴が差別的なんだ (キリッ」と嘯いてるだけのコメをずらずら並べられましても。
対偶とってもせいぜい「差別的でない人間 (自分たち) は差別性を感じない」とか夜郎自大にしかならんのだけど何が言いたいのさ?
Re: (スコア:0)
判定したのが、プログラムなのか、人なのか、ハトなのかは関係ない。
「グーグルが」黒人の写真をゴリラと判定した。ここが問題点。
Re:誤検出なんて他にもあるだろうに・・・ (スコア:1)
Google Glass は尻すぼみになってよかったんかもしれんね。
#誤解による争いを世界に撒き散らす可能性があった
#存在自体がホラー
Re: (スコア:0)
同意。実にくだらんね。
その程度の誤検出は十分にあり得る話で、
嫌なら自動でタグがつくサービスなんて使わなきゃいい。
私はGoogleが嫌いだが、タダでGoogle使いながら
それに文句言うやつはどうかしてると思う。
Re: (スコア:0)
元コメに「同意」って言ってるけど、元コメ理解できてないでしょ。
単に精度が低いだけなら、あなたの言うとおり「嫌なら自動でタグがつくサービスなんて使わなきゃいい」で済むけど、
そうじゃなくて、元コメが「わざわざこの件が取り上げられるのに、人種差別問題の面倒臭さを感じる」と言っている通り、
人種差別が絡んできていることでややこしくなっているのであって、それは単純に「使わなきゃいい」で済ませることはできない。
「タダで使っているくせに文句言うな」なんてのもまったくの的外れだ。
Re: (スコア:0)
嫌な奴は使わなきゃいいだけなのに
人種差別とかどうでもいいことで騒ぐ馬鹿がいて
めんどくせーなってことじゃないのかな。
Re: (スコア:0)
なんにせよ、ここには相手の心を読む超能力者が多くいるようだ。
Re: (スコア:0)
> 人種差別とかどうでもいいこと
人種差別を「どうでもいいこと」「面倒臭い」と言えるのは、単にあなたが幸運なだけです。
Re: (スコア:0)
実際どうでもいいんだよ
全世界の人間が人種差別なんてどうでもよくなったら差別なんて無くなる
Re: (スコア:0)
ほんと、どうでもいい。
人種差別なんてあってもなくてもどっちでもいい。
人種差別をなくそうとする連中を見ると
めんどくせー奴だな、と思う。
人種差別をわざわざ広げようとするやつも同じだが。
Re: (スコア:0)
>全世界の人間が人種差別なんてどうでもよくなったら差別なんて無くなる
そういうのを脳内お花畑って言うんでしょうね。
Re: (スコア:0)
脳内お花畑なのはお前の方だろ
Re: (スコア:0)
それ以前に差別がなくなる必要なんてどこにもないわな。
Re: (スコア:0)
自民党員かな?
Re: (スコア:0)
> 人種差別を「どうでもいいこと」「面倒臭い」と言えるのは、単にあなたが幸運なだけです。
で、実際今回の誤判定は人種差別だったんですか?
Re: (スコア:0)
> わざわざこの件が取り上げられるのに、人種差別問題の面倒臭さを感じる。
人の気持ちですから、面倒くさいのは仕方がありません。
たとえば何年間も毎日毎日、同級生から「ゴリラ」と言われていじめられ続けて精神が疲弊している人に向かって、悪意がなくても(たとえばテレビにゴリラが映っているのを見て)「ゴリラ」と言えばその人をどんな気持ちにさせるか。生まれてこのかた、何の差別もいじめも受けてこなかった人にとっては、それを想像するのは確かに面倒くさいことかもしれません。
面倒くささ、つまりコストは差別をしてきた人が負うべきでしょうが、そんなことは現実的ではないので、社会全体で負っていくしかありません。黒人差別をしたことがない人にとって、そのコストだけを負わなきゃいけないのは不満かもしれませんが、それは仕方がありません。
Re:誤検出なんて他にもあるだろうに・・・ (スコア:1)
だったらそれはゴリラに間違われて傷ついたから謝れと言うべきであり、
黒人とゴリラを見分けられないのは差別だから謝れというのは間違いなのではないかと思うのです。
そこが人の感情の面倒臭いところなんでしょうな。
一人以外は全員敗者
それでもあきらめるより熱くなれ