パスワードを忘れた? アカウント作成
13707004 story
Google

Google、児童ポルノ画像検出APIを公開。一定時間の検出率が大幅に増加 34

ストーリー by hylom
Googleのコンテンツ検出には悪いイメージしかないのだが 部門より
あるAnonymous Coward曰く、

Googleがインターネット上の児童性的虐待コンテンツ(CSAM、Child Sexual Abuse Material)を自動検出するツールを発表した。対策に取り組む団体に無料で提供するという(ITmedia)。

このツールはディープニューラルネットワークを使用して画像を分析し、画像をCSAMである可能性が高い順にソートできるという。従来はCSAMであるとタグ付けされた画像と検出対象の画像をマッチングするという手法が使われていたが、この技術では人工知能技術を使うことで未知の画像に対しても検出が可能になる。

Googleによるテストでは、「一定時間に検出・対処するCSAMが700%増加した」とされている。

この議論は賞味期限が切れたので、アーカイブ化されています。 新たにコメントを付けることはできません。
  • by Anonymous Coward on 2018年09月07日 14時04分 (#3476079)

    ということは・・・

    • by Anonymous Coward

      GoogleのAIによって、実際に被害を受ける人のいない児童ポルノの絵が描ける
      ってことじゃないですかね?

      • by Anonymous Coward

        いずれ Google のAI だけが児童ポルノの何たるかを知っている時代が来る。
        Google AI が児童ポルノと定義したから児童ポルノなのだ。

      • by Anonymous Coward

        >実際に被害を受ける人のいない児童ポルノ

        非実在青少年ならOKですか?

    • by Anonymous Coward

      毎日毎日毎日頭がおかしくなるぐらい、上がってくる違法サイトの報告をチェックするのだから、パターン画像にはことかくまい。

  • by Anonymous Coward on 2018年09月07日 14時15分 (#3476090)

    そして、日本人が消えた...

    • by Anonymous Coward

      実際、日本人のAVは軒並み引っかかりそう。
      区別付けられないでしょ。

      あとSUMOUも。

      • by nemui4 (20313) on 2018年09月07日 14時48分 (#3476113) 日記

        クレしんとかドラえもん辺りの子供向けのはずのアニメや漫画ががっつりハマってそう。
        実際その手の趣味の人から見たらあの辺は「実用的」なんすかね。

        親コメント
        • by Anonymous Coward

          ドラえもん新作映画の舞台挨拶で「一番力を入れたのはしずかちゃんの入浴シーンです!」というのは定番だったと思うんだけど。
          あと「温泉回」あたりも判定されちゃうのかしら。

      • by Anonymous Coward

        いや、精度については機械の方が人間並みかそれ以上なんだから、訓練すれば区別つくでしょ。
        https://kyodonewsprwire.jp/release/201806285433 [kyodonewsprwire.jp]

        相撲かどうかなんて廻しとか土俵でわかるし、明らかに人間が見れば分かる訳で
        それ以上の精度で判別できるなら充分に使えるじゃん。
        知識古すぎるんじゃないの。

        • by hjmhjm (39921) on 2018年09月08日 10時41分 (#3476618)

          で、こういう問題は解決されたの?
          https://togetter.com/li/1138939 [togetter.com]

          現代的な画像認識は逆に信頼できない気がする。
          とくに、今回の対象のような、外部から隠したい画像には。

          親コメント
        • by Anonymous Coward

          「人間並み」だとしたら無理でしょ。
          実際に白人は、日本人の大人と子供の区別がつかないんだし。
          AIに与えるサンプルはその白人が与えたサンプルなわけだから、
          人間に判別がつかないものはAIにも判別がつかない。

          知識が古すぎると言われても、親コメがタイトルにした「ゴリラ問題」だって、
          今年の初めの話題ですし……。

          https://www.sankei.com/wired/news/180119/wir1801190002-n2.html [sankei.com]

          # あと相撲の話は、ヌード画像を探そうと画像検索エンジン作ったら相撲画像ばっかり引っ掛かった、ってネタです……。

          • by Anonymous Coward

            #3476107は「それ以上の精度」と言っているのに、なぜ「人間並み」まで落されているのだろう

            • by Anonymous Coward

              書いてあるでしょ?
              AIが学習したデータは、「人間が提供したもの」なの。

            • by Anonymous Coward

              炉里系AV女優が身分証明するまで疑われたケースとかあるんだから、画像認識オンリーじゃどうにもならんよね。
              「炉里に見えるなら年寄りでもアウト」を許容するんならアリだけど。
              (内容にかかわらず園児服やセーラー服はアウト、みたいな基準になるけど)

              • by Anonymous Coward

                日本は割と実在児童の保護という建前を守るけど、欧米人は思想弾圧だと認識した上で開き直るからなぁ。
                宗教が強くてポップアートの造詣が浅く、何親等辿っても漫画で食ってる人に思い当たらない、身内に困る人が居ない。
                映像系でもお色気より暴力が蔓延していて、色気に対する想像力が全く働いていない。

                だもんでロリコン思想は純粋な悪だ、暴力で叩き直さなきゃ社会が危ないんだと真顔で言って誰も異議を唱えない状況が多々起きる。
                LGBTQにまとめる方向性にはなっているけれども日本からの文化侵略がまだ足りずに実現していない状況。

                こういう状況で欧米基準を機械的に適応されると、日本のアーティストとしてはちょっと困っちゃうよな。

            • by Anonymous Coward

              AIは人間が「正解の例」「不正解の例」を大量に与えて、与えられた例から共通点を見つけ出して人間の判断基準を写し取らせて作る。
              だから精度が人間並みでもそれ以上でも、基準を作る人間の思考回路がそもそも三十路のアジア人を責任能力の無い未成年と判断するようなズレたものなら、AIもそれを正確に模倣してしまう。
              むしろ正確に「アジア人は幼い未成年ばかり、アジア人はロリコンばかり」と判定してしまう。そういうことをされると社会がぶっ壊れるので…

              • by Anonymous Coward

                >だから精度が人間並みでもそれ以上でも、基準を作る人間の思考回路がそもそも三十路のアジア人を責任能力の無い未成年と判断するようなズレたものなら、AIもそれを正確に模倣してしまう。

                そうそう。
                だから、「今朝は寝ぼけてて見逃した」とかがなくなるだけで、最高精度は「人間が冴えてる時の精度」を超えられないんよね。
                ヒトはヒトより高いナニカを測るものさしがないんだもの。
                極端な話、「実はコレを見逃すことで社会的に大きなムーブメントとなり世界の倫理が改善される」のをAIが”直感”して見逃したとき、ヒトはそれを「なんだこいつ見逃しやがってポンコツめ」って思っちゃうもんな。

              • by Anonymous Coward

                データの用意の仕方を変えればいいんですよ。
                Google信者の生年月日と画像を提出してもらうんですよ

                セキュリティの時のように、検索できないようにするのは、提出するのは親の義務です
                万が一流出したときは、どうするんですか?責任とれるですか?と畳みかければOK

      • by Anonymous Coward

        アメリカの映画見てみなよ。普通に30代、40代の俳優が高校生の役を演じてるが、事前知識がなければ、何も違和感ないだろ。
        幼く見えるのは人種関係ないわ。どのグループにもいる。

        • by Anonymous Coward

          うんうん、竹内力のカオルちゃんも高校生にしか見えなかったね

          #GACKT様の違和感の無い高校生姿も間もなく見られるぞ

        • by Anonymous Coward

          30代が10代の役をしても違和感がないというよりは、白人が10代後半で30代40代並みまで老いると言った方が正しいんじゃ?

  • by Anonymous Coward on 2018年09月07日 14時27分 (#3476097)

    検知の正確性が増したとか誤検知が少ないとかは一言も言っていない。

    • by Anonymous Coward

      基準を決める人間が「誤検知などではない、こんなものは低俗だから弾圧して良いんだ」と言ってしまえば通るからな

    • by Anonymous Coward

      向こうの児ポ判定基準は、TKBの角度とかですからね……。

    • by Anonymous Coward

      この手のシステムは再現率さえ高ければ適合率が低くても問題ない。
      極端な話、正答率が50%とかでも再現率99%なら十分役に立つ。

  • by Anonymous Coward on 2018年09月07日 14時50分 (#3476116)

    自動検出ツールの信頼性を検証したいのでツールをください。
    けしてエロ画像収集に使うつもりではありません。
    けしてエロ画像収集に使うつもりではありません。

    • by Anonymous Coward

      優秀なフィルターは役に立つよね!

    • by Anonymous Coward

      悪用厳禁ツール
      の仲間入りですね

    • by Anonymous Coward

      自動検出ツールの信頼性を検証したいので、学習に使ったデータ、検証に使ったデータをください。

  • by Anonymous Coward on 2018年09月07日 14時54分 (#3476120)

    ベトナム戦争の少女の写真はちゃんと除外されるんだろうな

    • by Anonymous Coward

      スコーピオンズのアルバム写真も

  • by Anonymous Coward on 2018年09月07日 22時11分 (#3476416)

    児童検出と誤字らない某編集者に絶望した!

    • by Anonymous Coward

      どうせなら自動ポルノで

typodupeerror

あつくて寝られない時はhackしろ! 386BSD(98)はそうやってつくられましたよ? -- あるハッカー

読み込み中...