
Google、児童ポルノ画像検出APIを公開。一定時間の検出率が大幅に増加 34
ストーリー by hylom
Googleのコンテンツ検出には悪いイメージしかないのだが 部門より
Googleのコンテンツ検出には悪いイメージしかないのだが 部門より
あるAnonymous Coward曰く、
Googleがインターネット上の児童性的虐待コンテンツ(CSAM、Child Sexual Abuse Material)を自動検出するツールを発表した。対策に取り組む団体に無料で提供するという(ITmedia)。
このツールはディープニューラルネットワークを使用して画像を分析し、画像をCSAMである可能性が高い順にソートできるという。従来はCSAMであるとタグ付けされた画像と検出対象の画像をマッチングするという手法が使われていたが、この技術では人工知能技術を使うことで未知の画像に対しても検出が可能になる。
Googleによるテストでは、「一定時間に検出・対処するCSAMが700%増加した」とされている。
教師あり学習をしたのだろうか (スコア:0)
ということは・・・
Re: (スコア:0)
GoogleのAIによって、実際に被害を受ける人のいない児童ポルノの絵が描ける
ってことじゃないですかね?
Re: (スコア:0)
いずれ Google のAI だけが児童ポルノの何たるかを知っている時代が来る。
Google AI が児童ポルノと定義したから児童ポルノなのだ。
Re: (スコア:0)
>実際に被害を受ける人のいない児童ポルノ
非実在青少年ならOKですか?
Re: (スコア:0)
毎日毎日毎日頭がおかしくなるぐらい、上がってくる違法サイトの報告をチェックするのだから、パターン画像にはことかくまい。
ゴリラ (スコア:0)
そして、日本人が消えた...
Re: (スコア:0)
実際、日本人のAVは軒並み引っかかりそう。
区別付けられないでしょ。
あとSUMOUも。
Re:ゴリラ (スコア:1)
クレしんとかドラえもん辺りの子供向けのはずのアニメや漫画ががっつりハマってそう。
実際その手の趣味の人から見たらあの辺は「実用的」なんすかね。
Re: (スコア:0)
ドラえもん新作映画の舞台挨拶で「一番力を入れたのはしずかちゃんの入浴シーンです!」というのは定番だったと思うんだけど。
あと「温泉回」あたりも判定されちゃうのかしら。
Re: (スコア:0)
いや、精度については機械の方が人間並みかそれ以上なんだから、訓練すれば区別つくでしょ。
https://kyodonewsprwire.jp/release/201806285433 [kyodonewsprwire.jp]
相撲かどうかなんて廻しとか土俵でわかるし、明らかに人間が見れば分かる訳で
それ以上の精度で判別できるなら充分に使えるじゃん。
知識古すぎるんじゃないの。
Re:ゴリラ (スコア:2)
で、こういう問題は解決されたの?
https://togetter.com/li/1138939 [togetter.com]
現代的な画像認識は逆に信頼できない気がする。
とくに、今回の対象のような、外部から隠したい画像には。
Re: (スコア:0)
「人間並み」だとしたら無理でしょ。
実際に白人は、日本人の大人と子供の区別がつかないんだし。
AIに与えるサンプルはその白人が与えたサンプルなわけだから、
人間に判別がつかないものはAIにも判別がつかない。
知識が古すぎると言われても、親コメがタイトルにした「ゴリラ問題」だって、
今年の初めの話題ですし……。
https://www.sankei.com/wired/news/180119/wir1801190002-n2.html [sankei.com]
# あと相撲の話は、ヌード画像を探そうと画像検索エンジン作ったら相撲画像ばっかり引っ掛かった、ってネタです……。
Re: (スコア:0)
#3476107は「それ以上の精度」と言っているのに、なぜ「人間並み」まで落されているのだろう
Re: (スコア:0)
書いてあるでしょ?
AIが学習したデータは、「人間が提供したもの」なの。
Re: (スコア:0)
炉里系AV女優が身分証明するまで疑われたケースとかあるんだから、画像認識オンリーじゃどうにもならんよね。
「炉里に見えるなら年寄りでもアウト」を許容するんならアリだけど。
(内容にかかわらず園児服やセーラー服はアウト、みたいな基準になるけど)
Re: (スコア:0)
日本は割と実在児童の保護という建前を守るけど、欧米人は思想弾圧だと認識した上で開き直るからなぁ。
宗教が強くてポップアートの造詣が浅く、何親等辿っても漫画で食ってる人に思い当たらない、身内に困る人が居ない。
映像系でもお色気より暴力が蔓延していて、色気に対する想像力が全く働いていない。
だもんでロリコン思想は純粋な悪だ、暴力で叩き直さなきゃ社会が危ないんだと真顔で言って誰も異議を唱えない状況が多々起きる。
LGBTQにまとめる方向性にはなっているけれども日本からの文化侵略がまだ足りずに実現していない状況。
こういう状況で欧米基準を機械的に適応されると、日本のアーティストとしてはちょっと困っちゃうよな。
Re: (スコア:0)
AIは人間が「正解の例」「不正解の例」を大量に与えて、与えられた例から共通点を見つけ出して人間の判断基準を写し取らせて作る。
だから精度が人間並みでもそれ以上でも、基準を作る人間の思考回路がそもそも三十路のアジア人を責任能力の無い未成年と判断するようなズレたものなら、AIもそれを正確に模倣してしまう。
むしろ正確に「アジア人は幼い未成年ばかり、アジア人はロリコンばかり」と判定してしまう。そういうことをされると社会がぶっ壊れるので…
Re: (スコア:0)
>だから精度が人間並みでもそれ以上でも、基準を作る人間の思考回路がそもそも三十路のアジア人を責任能力の無い未成年と判断するようなズレたものなら、AIもそれを正確に模倣してしまう。
そうそう。
だから、「今朝は寝ぼけてて見逃した」とかがなくなるだけで、最高精度は「人間が冴えてる時の精度」を超えられないんよね。
ヒトはヒトより高いナニカを測るものさしがないんだもの。
極端な話、「実はコレを見逃すことで社会的に大きなムーブメントとなり世界の倫理が改善される」のをAIが”直感”して見逃したとき、ヒトはそれを「なんだこいつ見逃しやがってポンコツめ」って思っちゃうもんな。
Re: (スコア:0)
データの用意の仕方を変えればいいんですよ。
Google信者の生年月日と画像を提出してもらうんですよ
セキュリティの時のように、検索できないようにするのは、提出するのは親の義務です
万が一流出したときは、どうするんですか?責任とれるですか?と畳みかければOK
Re: (スコア:0)
アメリカの映画見てみなよ。普通に30代、40代の俳優が高校生の役を演じてるが、事前知識がなければ、何も違和感ないだろ。
幼く見えるのは人種関係ないわ。どのグループにもいる。
Re: (スコア:0)
うんうん、竹内力のカオルちゃんも高校生にしか見えなかったね
#GACKT様の違和感の無い高校生姿も間もなく見られるぞ
Re: (スコア:0)
30代が10代の役をしても違和感がないというよりは、白人が10代後半で30代40代並みまで老いると言った方が正しいんじゃ?
検出率 (スコア:0)
検知の正確性が増したとか誤検知が少ないとかは一言も言っていない。
Re: (スコア:0)
基準を決める人間が「誤検知などではない、こんなものは低俗だから弾圧して良いんだ」と言ってしまえば通るからな
Re: (スコア:0)
向こうの児ポ判定基準は、TKBの角度とかですからね……。
Re: (スコア:0)
この手のシステムは再現率さえ高ければ適合率が低くても問題ない。
極端な話、正答率が50%とかでも再現率99%なら十分役に立つ。
ください (スコア:0)
自動検出ツールの信頼性を検証したいのでツールをください。
けしてエロ画像収集に使うつもりではありません。
けしてエロ画像収集に使うつもりではありません。
Re: (スコア:0)
優秀なフィルターは役に立つよね!
Re: (スコア:0)
悪用厳禁ツール
の仲間入りですね
Re: (スコア:0)
自動検出ツールの信頼性を検証したいので、学習に使ったデータ、検証に使ったデータをください。
ナパーム弾 (スコア:0)
ベトナム戦争の少女の写真はちゃんと除外されるんだろうな
Re: (スコア:0)
スコーピオンズのアルバム写真も
絶望した! (スコア:0)
児童検出と誤字らない某編集者に絶望した!
Re: (スコア:0)
どうせなら自動ポルノで