アカウント名:
パスワード:
学習した情報は一枚絵ではないので生成画像が全体を複製しているものでないと自動検出は困難です。stable diffusionはテキストで細く分けて学習している部分があるので学習画像に偏りがあり、学習画像の個別の情報のほとんどが消えるほどの十分な量の学習ができていない部分があります。記憶しているけれど画像情報ではないという解釈をよく見ますが、アルゴリズムや内部表現を理由に画像情報が消えたことにすると圧縮や暗号化との解釈の整合性が取れません。画像を複製できるということは違法な画像の配布にも利用可能なので、複製可能なものは画像情報を持っていると解釈してモデルの作成・配布・画像生成サービスなどを提供する側の法的責任を明確にする必要があります。生成画像の利用者のみに責任を押し付ける今の解釈では裁判などを起こしてもいたちごっこになります。
今の機械学習ブームの問題は、みんな技術を理解せずに知ったかぶりになってるところなんですよね。
> 学習した情報は一枚絵ではないので生成画像が全体を複製しているものでないと自動検出は困難です。
これとか全くのデタラメです。既存の海賊版とか違法コピーを検出する技術は自動検出を実現してます。
そもそも、スマホに搭載されているQRコードの読み取り機とか、カメラの顔自動認識とか深層学習登場前から、既知の画像とか人の顔みたいなパターンが画像のどこにふくまれているかを自動検出するアルゴリズムは多数存在しています。車のナンバーの自動読み取り機とか、工場のラインで製品のチェックをする産業カメラとか、いくらでも実用化例があるわけでそういう基礎を知らない人が、いきなり stable diffusion とか言い出しちゃう。自動検出は困難ですとか言い出しちゃう。
画像本体の情報は持っていなくってプロンプトで学習データでもって居る特徴量と近似値になるまでノイズを掛け合わせた画像を生成しているのでそれは機械学習的には「似た画像」であって「同じ画像」かどうか判断するだけの情報量はもってねぇよ
極論だが、あるビットマップ/RAW画像を、例えばJPEGの適当な量子化設定でエンコードしデコードしたとする。元画像から情報量が劣化しているからと言って、世間一般的には大体同一の画像だとみなされるよね。
もう研究室や学会・専門家の中だけの話では済まないのだから、「似た」は社会通念的判断で「同じ」扱いを受ける可能性があることを忘れてはいけない。
どうして日本語読めないのにレスつけたんですか?機械学習で同じ画像だと判断出来るはずだ!って言っているので「機械学習的には「似た画像」でしかない」っていってるんだけど。
機械学習データに元画像のデータなんてないし人間が見て似ている、同じだっていうだけで機械学習的には特徴量が近い画像でしかないっていってるのにどうして人間が見てっていう訳の分からない話をしてきたんですか?
どうして人間の主観を持ってきたんですか?今このツリーでされている話題は「機械学習の学習データに使われた物と同一の画像だと判断出来るのか?」ですよ?「人間が似ていると判断出来るかどうか」は議論してませんよ?まず、貴方が日本語が理解出来ていないので日本語の強化学習をした方がいいです。
後、エンコードしデコードした場合もそれ人間が見て「同じ画像」っていうだけでバイナリデータが変化しているのであれば機械的には「似た画像」だよ?人間が見ても差を感じないデータを削ったりするんだからそりゃ当たり前なんだけど。
学習データが元画像に由来する画像を含んでいないってのが大嘘なんだろ。抽出困難な形式ってだけで元画像の断片がどっさり埋まっている。ここを「元画像は持ってないんだノイズをもとにうんたらかんたらー」って誤魔化してAIをヨイショしてたアホがあまりに多すぎた。
あと勘違いしているようだが最終的に肝心なのは人間の知覚上同等と見なせるレベルで元画像を持っているか、流用するかだぞ?結果は黒だったが。まぁ最初から言われてたがな。事実認めて静かになるまでこんなに時間かかって……ほんとくだらん。詭弁じゃなくてもうちょい生産的な所に力使えや、まったく……
含んでないよ?「みかん」ってプロンプトがあったら内部で「みかん」ってタグがついてる特徴量のデータに近くなるまでノイズかけあわすだけ画像データその物を持ってるわけではない
人間が「みかん」って行ったら色、サイズ、形状はって考えるのと同じようなもんでしかないi2iなら未だしもプロンプトだけで生成するなら持ってないし技術を理解しないでって言ってるツリーで理解しない思い込みで話をするんじゃない
その「含まれてない」ってJPEG圧縮形式には元画像が含まれてないっていうレベルの「含まれてない」でしょというかそのレベルの「含まれてない」は「含まれてる」だって認識で世論が固まりつつあるのが現状
全然違うよ画像生成の機械学習データには元画像のデータは殆ど無いっていうかあるんだったら何億枚もの画像データのDBが数十GBに収まらないだろう
学習に使った画像すべてではないが一部の画像については元画像を概ね再現できるだけの情報を持っているという事でしょう。
推測ですが
1枚の画像から僅かしか学習しないアルゴリズムだとしてもなんらかの条件によりその画像の学習がたくさん実行され過剰に学習されてしまうとか。
出力条件についてもその画像だけ合致し他の画像に合致しない場合、その画像を全力で再現しまうとか。
そうじゃなくって100000人に、みかんの絵を書いてくれっていったら同じようなみかんの絵が生まれる可能性があるってだけ
情報をもってるんじゃなくって特徴で持ってるからって話
より多くのコメントがこの議論にあるかもしれませんが、JavaScriptが有効ではない環境を使用している場合、クラシックなコメントシステム(D1)に設定を変更する必要があります。
人生の大半の問題はスルー力で解決する -- スルー力研究専門家
画像情報 (スコア:1)
学習した情報は一枚絵ではないので生成画像が全体を複製しているものでないと自動検出は困難です。
stable diffusionはテキストで細く分けて学習している部分があるので学習画像に偏りがあり、学習画像の個別の情報のほとんどが消えるほどの十分な量の学習ができていない部分があります。
記憶しているけれど画像情報ではないという解釈をよく見ますが、アルゴリズムや内部表現を理由に画像情報が消えたことにすると圧縮や暗号化との解釈の整合性が取れません。
画像を複製できるということは違法な画像の配布にも利用可能なので、複製可能なものは画像情報を持っていると解釈してモデルの作成・配布・画像生成サービスなどを提供する側の法的責任を明確にする必要があります。生成画像の利用者のみに責任を押し付ける今の解釈では裁判などを起こしてもいたちごっこになります。
Re: (スコア:0)
今の機械学習ブームの問題は、みんな技術を理解せずに知ったかぶりになってるところなんですよね。
> 学習した情報は一枚絵ではないので生成画像が全体を複製しているものでないと自動検出は困難です。
これとか全くのデタラメです。
既存の海賊版とか違法コピーを検出する技術は自動検出を実現してます。
そもそも、スマホに搭載されているQRコードの読み取り機とか、カメラの顔自動認識とか
深層学習登場前から、既知の画像とか人の顔みたいなパターンが画像のどこにふくまれているかを自動検出するアルゴリズムは多数存在しています。
車のナンバーの自動読み取り機とか、工場のラインで製品のチェックをする産業カメラとか、いくらでも実用化例があるわけで
そういう基礎を知らない人が、いきなり stable diffusion とか言い出しちゃう。自動検出は困難ですとか言い出しちゃう。
Re: (スコア:0)
画像本体の情報は持っていなくってプロンプトで学習データでもって居る特徴量と
近似値になるまでノイズを掛け合わせた画像を生成しているのでそれは機械学習的には「似た画像」であって
「同じ画像」かどうか判断するだけの情報量はもってねぇよ
Re: (スコア:0)
極論だが、あるビットマップ/RAW画像を、例えばJPEGの適当な量子化設定でエンコードしデコードしたとする。
元画像から情報量が劣化しているからと言って、世間一般的には大体同一の画像だとみなされるよね。
もう研究室や学会・専門家の中だけの話では済まないのだから、「似た」は社会通念的判断で「同じ」扱いを受ける可能性があることを忘れてはいけない。
Re: (スコア:-1)
どうして日本語読めないのにレスつけたんですか?
機械学習で同じ画像だと判断出来るはずだ!って言っているので「機械学習的には「似た画像」でしかない」っていってるんだけど。
機械学習データに元画像のデータなんてないし人間が見て似ている、同じだっていうだけで
機械学習的には特徴量が近い画像でしかないっていってるのに
どうして人間が見てっていう訳の分からない話をしてきたんですか?
どうして人間の主観を持ってきたんですか?
今このツリーでされている話題は「機械学習の学習データに使われた物と同一の画像だと判断出来るのか?」ですよ?
「人間が似ていると判断出来るかどうか」は議論してませんよ?
まず、貴方が日本語が理解出来ていないので日本語の強化学習をした方がいいです。
後、エンコードしデコードした場合もそれ人間が見て「同じ画像」っていうだけで
バイナリデータが変化しているのであれば機械的には「似た画像」だよ?
人間が見ても差を感じないデータを削ったりするんだからそりゃ当たり前なんだけど。
Re: (スコア:0)
学習データが元画像に由来する画像を含んでいないってのが大嘘なんだろ。
抽出困難な形式ってだけで元画像の断片がどっさり埋まっている。
ここを「元画像は持ってないんだノイズをもとにうんたらかんたらー」
って誤魔化してAIをヨイショしてたアホがあまりに多すぎた。
あと勘違いしているようだが最終的に肝心なのは人間の知覚上同等と見なせるレベルで元画像を持っているか、流用するかだぞ?
結果は黒だったが。
まぁ最初から言われてたがな。
事実認めて静かになるまでこんなに時間かかって……ほんとくだらん。
詭弁じゃなくてもうちょい生産的な所に力使えや、まったく……
Re: (スコア:0)
含んでないよ?
「みかん」ってプロンプトがあったら内部で「みかん」ってタグがついてる特徴量のデータに近くなるまでノイズかけあわすだけ
画像データその物を持ってるわけではない
人間が「みかん」って行ったら色、サイズ、形状はって考えるのと同じようなもんでしかない
i2iなら未だしもプロンプトだけで生成するなら持ってないし技術を理解しないでって言ってるツリーで理解しない思い込みで
話をするんじゃない
Re: (スコア:0)
その「含まれてない」ってJPEG圧縮形式には元画像が含まれてないっていうレベルの「含まれてない」でしょ
というかそのレベルの「含まれてない」は「含まれてる」だって認識で世論が固まりつつあるのが現状
Re: (スコア:0)
全然違うよ
画像生成の機械学習データには元画像のデータは殆ど無い
っていうかあるんだったら何億枚もの画像データのDBが数十GBに収まらないだろう
Re:画像情報 (スコア:0)
学習に使った画像すべてではないが
一部の画像については元画像を概ね再現できるだけの情報を持っている
という事でしょう。
推測ですが
1枚の画像から僅かしか学習しないアルゴリズムだとしても
なんらかの条件によりその画像の学習がたくさん実行され過剰に学習されてしまうとか。
出力条件についても
その画像だけ合致し他の画像に合致しない場合、その画像を全力で再現しまうとか。
Re: (スコア:0)
そうじゃなくって100000人に、みかんの絵を書いてくれっていったら
同じようなみかんの絵が生まれる可能性があるってだけ
情報をもってるんじゃなくって特徴で持ってるからって話