パスワードを忘れた? アカウント作成
13275486 story
Facebook

ネットでの「不適切動画」投稿を規制するのは難しい 36

ストーリー by hylom
表現の自由との戦い 部門より

昨今ではFacebookやYouTubeなどに暴力的な動画をアップロードする事件が定期的に発生している。たとえば今年4月には、米オハイオ州で撮影されたという射殺動画がFacebookにアップロードされた。また、Facebookでは知的障害者を暴行する動画や、山に放火した動画なども過去にアップロードされ問題となっている。しかし、表現の自由との兼ね合いからこのような行為を規制することは実際には難しいという(WIRED)。

米国では、第三者から投稿された「有害なコンテンツ」の提供を仲介して公開する業者については責任が問われないという法律があるという。そのため、たとえばFacebook上で有害なコンテンツが公開されていても、Facebookは訴えられる恐れがない(ただし、日本においては違法なコンテンツを公開し続けた場合、それを仲介して公開する業者はその責任を問われる可能性がある)。

また、こういったコンテンツのアップロードを違法とするアイデアもあるが、たとえば犯罪の被害者や目撃者が犯罪の模様を撮影した動画を、問題の解決を目的としてアップロードした場合にも違法とされてしまう懸念もあるという。

この議論は賞味期限が切れたので、アーカイブ化されています。 新たにコメントを付けることはできません。
  • by miyuri (33181) on 2017年05月09日 20時37分 (#3207861) 日記

    メリケンの文化なんぞしらんがな。
    (´・ω・`)

    • by Anonymous Coward

      いや
      人間の本性だろ?
      この問題の最終解決には
      70億地球人類を駆除するしか無いよね

      • by Anonymous Coward

        人の本性に問題があるから、解決するには全人類を駆除するしかない?
        ここでの話題は、不適切動画にアップロードの問題解決ですよね。

      • by Anonymous Coward

        駆除するのは、人間の本性に問題があると判断した人だけでよい。それで問題は解決する。

  • by Ykr (46986) on 2017年05月09日 16時55分 (#3207682) 日記

    たとえば子供・障害者を虐待するシーンとか、犯罪を行うシーンを、映像表現として盛り込む時は、「この動画は違法行為をしているシーンがありますがフィクションです」という申請(チェックいれるだけでも)をできるようにするとか

    その上で、チェックが入ってない動画に違法行為シーンがあって、通報を受けたら目視確認で即座に非公開にする
    チェックが入ってたらすぐには消さないけど、犯罪が本物だったら虚偽の申告をされた動画サイトの責任は問わない(かわりに投稿者の責任を重くする)ならバランスとれそうでは?

    • by Anonymous Coward

      □この動画の登場人物は全て18歳以上です

      • by Anonymous Coward

        このゲームに出てくる女性は全員18歳以上だよ、お兄ちゃん!

        • by Anonymous Coward

          このゲームに出てくる高校生は全員18歳以上だよ、お兄ちゃん!

          • by Anonymous Coward

            出てくるヒロインは全員18歳だか成人してると最初に注意書きしておきながら、自己紹介でがっつり中学生と言ってるエロゲが有ったな・・・

            • by Anonymous Coward

              サバ読んでるだけじゃね。

            • by Anonymous Coward

              あくまで自称だから・・・

      • by Anonymous Coward
        □この動画の登場人物は全て18歳以上です
        □ただし、この作品内はは1年265日です
        □265*18/365=...

        ってやったらどうなるの?
        • by Anonymous Coward

          イスラム教で正式に使われるヒジュラ暦(純粋太陰暦)では、一年が約354日で、しかもペドフィリアは開祖ムハンマドの言行=スンナにより、イスラム法上一般に合法である。
          少年愛は、コーランやスンナに否定する根拠がないので、概ね容認されてきた。

          # サウジアラビアなどヒジュラ暦を公式の暦としている国では特許や著作権など法制度上の有効期限がグレゴリオ暦で数えた場合よりも短くなる。たとえば特許が15年間有効とした場合、グレゴリオ暦のそれよりも特許の有効期限が165日ほど短くなる。(ウィキペより抜粋)

    • by Anonymous Coward

      厳し目にフィルターして、引っかかったら問題ないことを申請し、人間がチェックして解除したほうがいい気もする。

      • by Anonymous Coward

        運営者側が、投稿動画を全部目視チェックするのは現実的じゃないし
        システム的には動画のシーンを違法行為なのかそうでないのか区別するだけでも難しい
        (違法行為の「可能性がある」を閾値つけてチェックすることはできるけど、どちらにせよ万全にはほど遠くなるかと)

        だから最初のフィルターはどうしても視聴者からの通報に頼るしかないんじゃない?

        • by Anonymous Coward

          全くその通りですね
          キュレーションサイト批判にもその調子でお願いしますよ

          • by Anonymous Coward

            不適切なコンテンツだと知りながら放置したキュレーションサイトの問題とは全然別だと思うんだが。

            そもそもDeNAとかの問題は、ユーザーによる投稿以前にキュレーションサイト側が投稿してたわけだし。
            (NAVERまとめとかの問題は動画投稿サイトの問題に近いけど、権利者からツッコミあればあっさり消すだけ動画サイトのほうが遙かにマシ)

          • by Anonymous Coward

            そっちは”管理下(であるはず)のライターをちゃんと管理せずテキトーに書かせた問題”だから逃げ場なく管理側の問題でしょ。
            公開前にいくらでも精査する時間があるんだから(現実的かどうかはさておき)。

            こちらは不特定多数が投稿できる形だと、事前に判定するシステム仕様や事後の監視でもハネ切れない部分が出てきちゃうけどどうしよう、って問題だから、似てはいるけど違う問題。
            (すべて管理側のチェック後に公開するよ、という形式にはできるけど、それだと形態として別サービスになっちゃう)

    • by Anonymous Coward

      ユーザーが自らフラグ立てるとは限らないしね。他人に見てもらうためにアップロードするわけで、わざわざ自分で制限はつけないんじゃなかろうか。
      アップロード後にサーバー側でエンコードしてからの公開だろうし、その間に、Facebookお得意の(?)AIなんかで写ってるものを簡易チェックするとか。
      話されてる単語もかなり有用な判断材料になるだろうし。
      まぁそれでも人間の目は必要だろうなぁ。3000人くらい監視人を増員するんだっけ。

      • by Anonymous Coward

        この動画は違法っぽい描写があるけど違法じゃないよ、というフラグを実装した場合を想定してみる

        違法な行為(話題に上がっている虐待シーンなど)では、ユーザーが自らフラグを立てた場合、意図的に動画サイトを騙したことになるから、動画サイト側が免責される、というのは一定の筋が通る
        フラグを立てていない場合、(ユーザーの通報や、AIによる判別で)違法な行為が動画に含まれていることが疑われたら、自動的に公開を停止して、人間がチェックすればいい
        問題がなければ再公開すればいいのだし、一度そこでチェックを受ければ「問題ない動画」とすることもできる

  • 客観的基準を定めて線引きしたらナパーム弾の少女 [it.srad.jp]はどうやってもアウトにしかならない。
    今後も、ルポルタージュ目的でそういう写真が出てくる可能性はあるし、そうかどうかを判断するなんてAI使っても不可能だろう。

    それでも止めたければ、表現の自由を越えて制限するしかないよね。

    --
    しもべは投稿を求める →スッポン放送局がくいつく →バンブラの新作が発売される
    • by Anonymous Coward

      知的障害者を暴行、山に放火はその行為自体が既に犯罪なんだから、動画公開を違法化する事のメリット無いじゃん。
      むしろ自分から俺は犯罪を犯しましたよーってアピールしてくれてる訳で、これを規制したい人は何を目的にしてるんだ?
      被害者の精神的苦痛がどうのこうのなら、既に精神的な損害賠償とか認められてるから新しい罰則作る意味無いし。
      Facebookがこれは俺のサービスにはいらねーって消すのは勝手にやればよろしい

      • by Anonymous Coward

        >これを規制したい人は何を目的にしてるんだ?

        エログロ画像/動画を不特定多数におおっぴらに公開されている状況は社会的公益に反する、という考えの人とかかも。
        広告で時々問題になるように、ネットで画像/動画は「見たい人だけが見に行く」とは限らず、別コンテンツを見ていたはずなのにいきなり目に入ってくるケースもあるし。
        発生してから個別に通報とか理屈上は可能だけど、事前になんとかできないかって考える人もいるだろう。

        #個人的には事前にはどうにもできず、事後に文句等が積みあがることで自主規制的なものが出来上がっていくしかないんじゃって思ってますけど。
        #安易なグロならあのへんのサイトに行けと言われ、そこ以外にアップしてるやつがいたら非難される、みたいな。

    • by Anonymous Coward

      抑圧された規制へのカウンターとしての表現破戒者なんて気概が昔の報道にはあったらしいが
      いまや報道にすらそんな気概はなく、まして単なる愉快犯だけになるのであれば
      いっそのこと全部制限してしまえばいいとも思う

    • by Anonymous Coward

      > 客観的基準を定めて線引きしたらナパーム弾の少女はどうやってもアウトにしかならない。

      逆じゃね?
      主観的に考えたらアウトで、客観的に考えたら容認。

      幼女の裸体に欲情するという自分の主観をもとに、あれはアウトって考えるわけだよね。

      米軍の無差別ナパーム爆撃によって全身にやけどを覆い、衣服は焼けおちて裸体になった少女の悲劇の姿に欲情する奴はいない、と客観的に考えればOKなのだよ。

      • by Anonymous Coward

        議論としては主観・客観ではなく、機械的か否かでしょうね。
        機械的に判断できる基準を定めることは難しいし、いざ定めてもメリットデメリットがあるってお話。

        なお
        >幼女の裸体に欲情するという自分の主観をもとに、あれはアウトって考えるわけだよね。
        は必ずしも評価基準はそことは限らなくて、
        欲情を覚えるのではなく嫌悪感を覚えるのかもしれないし、笑えるモノを求めてる時に痛ましく同情を覚えるモノが出てくるのがヤ、という基準かもしれない。
        他の基準だってあるだろう。幼女が出てくるからってロリコン趣味だけが争点だと考えるのは視野狭窄だ。
        欲情しなくたって、例えば電車内の釣り広告にその写真がデカデカと貼り付けられてたらヤだよ(それを法的・システム的に規制しようとは俺は言わないけど)。

  • by Anonymous Coward on 2017年05月09日 17時56分 (#3207743)

    市場競争ではフィルタをしない方が合理的になる。
    一定水準の規制義務付けならスケールメリットの効かない弱小サイトが財政的に厳しくなり、サービス品質や遵法度の競争がなくなる。
    そこで利益を0ないし合理的な範囲内に留まる程度フィルタリングを行っていれば免責するとすれば、少なくとも違法動画で大儲けするサイトはなくなる。
    それ以上の利益を上げたいなら、今より厳しい水準をクリアした上で免責なしにすればいい。

    まぁ明らかな問題があるけど。

    • by Anonymous Coward

      近年の炎上商法しか知らんとこういう発想になるのか
      利益性のみに主眼を置くとは
      中々に視点が斜め上でシャープです

      一昔前のWarezや放流コンテンツは
      収益のために行われていたのではなく
      虚栄心を満たすために行われていたのですよ

      このストーリーの不適切コンテンツも
      主に虚栄心、どうせなら収益程度のバランスなのでは?

      # 精神病理にどう対処するかという視点くらいでどうですかね

  • by Anonymous Coward on 2017年05月09日 18時17分 (#3207761)

    「射殺」、「知的障害者に対する暴行」、「山に放火」、などの純然たる犯罪の場合で当事者自身あるいは直接的関係者が公開したものは削除でいいんじゃないの?当事者は逮捕されるだろうし。
    公開前に規制は無理だろうし。

    • by Anonymous Coward

      公開前に削除じゃなくて見つけたら警察に通報できるボタンを用意すべき

    • by Anonymous Coward

      ちょっとずれるけど、例えばニュースなんかで見かける米軍による爆撃の瞬間みたいな映像はどうなるんだろう?正義のため(とされている)暴力ならOKなのかな。

      • by Anonymous Coward

        戦争映画は全部削除ね

    • by Anonymous Coward

      そもそも、その動画がフェイクか事実かを客観的に確認することが困難なわけで・・・・・・・・・

      • by Anonymous Coward

        映画やゲームなどの作り物の動画の方がよほど「リアル」だからなあ。

        解像度を落としてそれっぽくした宣伝とかあっても、本物の記録映像と区別するのは難しいと思う。
        #犯罪レポートやニュース特番風の映画か何かの話を、昔聞いたような?(ここ十年以内くらいで)

  • by Anonymous Coward on 2017年05月10日 12時47分 (#3208193)

    そもそも規制しようと言う方がおかしい。
    「不適切」とか「有害」とかいい加減な理由で規制しようとするのは変だと思え。
    「私が不愉快だから規制したい」って言ってるだけじゃないか。

    不愉快でも我慢するのが当然。子供じゃないんだから我慢を覚えろ。
    言論/表現の自由は民主主義に根幹なのだから、不愉快なくらいで規制して良いものではない。

    • by Anonymous Coward

      いい加減な理由で規制するのがダメなのは同意

      だが、YouTube等の動画サイトはPVが増えた場合、動画投稿者に金銭的なメリットが発生することがあるし
      金銭的メリットがないとしても、わざわざ動画を投稿するような人は、PVが増えることにより欲求承認を満たすことがあって
      つまり「多く視聴される(PVが増える)ようにする動機がユーザーにはある」ことが前提になる

      で、そのPVを稼ぐ手段として違法行為が含まれる場合、それが許されるべきかっていうと、そこは表現の規制とは違うレイヤーで規制されるべきなんじゃない?
      「殺人を芸術として扱いたかったけど、役者の演技じゃ満足できなかったのでガチ殺人をして一部始終を動画にしてました」とか許されないだろ。
      あるいは「ムカつくあいつの日常生活を盗撮して、プライバシーも何も関係なく公開しちゃった。言論の自由だぞ!」というのも言論の自由とは別の問題を孕むだろ。

      そういった違法行為を含む動画をどうやって防いでいくかって話じゃないの?これ。

typodupeerror

最初のバージョンは常に打ち捨てられる。

読み込み中...