アカウント名:
パスワード:
白黒画像から元の色を推定できるんじゃないのか...
グレースケールからカラー画像も(あっているかはともかく)復元できますので、RGB復元処理を挟めば同じことをグレースケールでもできると思います。
が、「白黒空間」の持っている情報からアルベドとしてのRGB空間を推定するより、「まがいなりにもRGB情報を持っている色空間」の持っている情報からからアルベドとしてのRGB空間を推定するほうが、元の情報量がリッチかつ推定したいアルベドに近い情報がある分、データの推定精度が高いよね、という話だと思います。
アーク溶接で使う遮光眼鏡をかけて絵を見て陰の影響を取り除いた様子(アルベド)を想像するより、太陽の位置が違うところにある(見え方が違う)絵を見て陰の影響を取り除いた様子(アルベド)を想像する方が簡単でしょう?をアルゴリズムで実装した感じです。
LiDAR云々とあるので、ランバート反射モデルにLiDARで割り出した法線ベクトルをぶっこんだとかそういう感じだろうと妄想。
より多くのコメントがこの議論にあるかもしれませんが、JavaScriptが有効ではない環境を使用している場合、クラシックなコメントシステム(D1)に設定を変更する必要があります。
物事のやり方は一つではない -- Perlな人
なんだ (スコア:0)
白黒画像から元の色を推定できるんじゃないのか...
Re:なんだ (スコア:1)
グレースケールからカラー画像も(あっているかはともかく)復元できますので、
RGB復元処理を挟めば同じことをグレースケールでもできると思います。
が、
「白黒空間」の持っている情報からアルベドとしてのRGB空間を推定するより、
「まがいなりにもRGB情報を持っている色空間」の持っている情報からからアルベドとしてのRGB空間を推定するほうが、
元の情報量がリッチかつ推定したいアルベドに近い情報がある分、データの推定精度が高いよね、という話だと思います。
アーク溶接で使う遮光眼鏡をかけて絵を見て陰の影響を取り除いた様子(アルベド)を想像するより、
太陽の位置が違うところにある(見え方が違う)絵を見て陰の影響を取り除いた様子(アルベド)を想像する方が簡単でしょう?を
アルゴリズムで実装した感じです。
LiDAR云々とあるので、ランバート反射モデルにLiDARで割り出した法線ベクトルをぶっこんだとかそういう感じだろうと妄想。