パスワードを忘れた? アカウント作成
この議論は賞味期限が切れたので、アーカイブ化されています。 新たにコメントを付けることはできません。

人工知能を使って服を着た女性の写真から裸の画像を生成するソフトウェアが登場」記事へのコメント

  • 児童ポルノが生成されて逮捕されてしまうので気をつけよう。

    • by Anonymous Coward

      少女の顔と大人の裸のコラ画像を作ったとしても
      児ポと呼べるものとは程遠いし
      需要があるとも思えない

      • 少女の顔と大人の裸のコラ画像を作ったとしても
        児ポと呼べるものとは程遠いし
        需要があるとも思えない

        たしか児童ポルノ法の国会審議のときに「未成年の顔写真を大人の女性のヌードにはめたいわゆる『アイコラ』なるものは児童ポルノになりえるのか」という議論を大真面目に行っていたはず。

        親コメント
        • by Anonymous Coward

          > 「未成年の顔写真を大人の女性のヌードにはめたいわゆる『アイコラ』なるもの

          『アイコラ』の「アイ」って何の略だと思ってる?

          • > 「未成年の顔写真を大人の女性のヌードにはめたいわゆる『アイコラ』なるもの

            『アイコラ』の「アイ」って何の略だと思ってる?

            俺じゃなくて国会議員に言ってくんろ

            親コメント
            • 当該の国会議員的には「アイ」は未成年じゃなけりゃダメ
              ってことなんじゃないかと。

              「まだ16だから」あたりでアップデートが止まっているか、
              熱烈な17歳教の信者かは知りまへん。

              まぁ、「アイドルの内の未成年者に関して」ってことなんでしょうが。

              親コメント
              • by Anonymous Coward

                あれだよ、30過ぎのBBAが自分を「女子」とかいってるんだから未成年って認識なんでしょ。

            • by Anonymous Coward

              国会議員が「アイコラ」って言葉を「未成年の顔写真を大人の女性のヌードにはめた」物という意味で使ってたの?

          • by Anonymous Coward

            Appleが始めたと思っているんじゃないの?

          • by Anonymous Coward

            その違和感は20年かそこら前にやってもう飽きた感がある…。
            ポルノタグのhentaiやAnimeに立ち向かうような感じ。

UNIXはただ死んだだけでなく、本当にひどい臭いを放ち始めている -- あるソフトウェアエンジニア

処理中...