網路會員
|
To kuniaki 的第 480 篇: "1.一個pixel的XYZ 值是如何求得? 可以經由RGB 三個色板值求得嗎?" 如果你指的是你有一個JPEG檔,是用sRGB色空間表示的,每個pixel的RGB都有的,則依照 http://www.w3.org/Graphics/Color/sRGB的(1.8),可將RGB值轉成XYZ。若是要跟我做同樣的工作,由sensor拍進來的raw RGB值要求出XYZ值,基本上就是一個color correction的動作,用sensor拍標準的色卡(如Macbeth),然後求得raw RGB和linear RGB之間的轉換矩陣,之後就很容易轉換成其他的色空間了,包括XYZ。 "2.Lab值是由該pixel 的XYZ 值跟參考白的XYZ 值轉換, 請問, 這時的"參考白", 是指哪個"白"....我可不可以說它就是(R,G,B)=(255,255,255) ? 或是有別的定義?" 在XYZ空間是不談RGB的,在不同的色溫下,參考白就是那個色溫顏色的XYZ,看一下sRGB的定義,他的Illuminant White是D65,也就是白色是x=0.3127, y=0.3291,則z=1-x-y=0.3582,然後就很容易將xyz轉成XYZ啦。 "3.這個pixel 的Lab 值既是經過轉換而來, 是不是有某個轉換矩陣? 請問一下, 如果有, 我該去哪找這個資料? (這些都請歪桑打字真的太過份了....)" XYZ轉Lab: http://www.colourware.co.uk/cpfaq/q3-21.htm"4.如果, RGB空間跟Lab空間本來就存在有可以"互相轉換"的"公式"存在, 又為何Lab 色彩空間的定義會比較廣?" 看了我最近的回答,應該就會知道單單RGB這個自掩飾定義不清。至於說"Lab 色彩空間的定義會比較廣",不是這麼說的,而是每個不同的RGB空間都可以轉換到Lab空間,其中的L*是依照這個RGB色空間的白點來定的,而a*b*則本來就沒有極限值,所以Lab本身是沒有範圍的,一個轉換到Lab色空間的動作只是將原來的RGB值在Lab這個空間上找一個對應點而已。 簡單來說,你可以說 RGB-A色空間 的 Lab空間 比 RGB-B的 大,所以 RGB-A色空間 可以表現更多的色彩,但這兩個RGB色空間是沒辦法和Lab色空間比大小的,就像你可以說"日本在地圖上的面積比台灣大",但沒辦法說"日本的面積比地圖大"! |
網路會員
|
.............首先,在我和OV的工程人員交談中了解,製程中的B filter品質最難掌握,變異性最大,而其實半導體製程對以紅色到近紅外線的波長最敏感,但Bayer pattern的每2*2的pixel中為什麼不是兩個R而是兩個G,其實是眾說紛紜,但其實都沒錯,只是說法不同,人眼對亮度的敏感度高於彩度,而亮度裡面G的貢獻最多,所以選擇兩個G的話可以提高G的解析度,提高他的Nyquist frequency,而可以降低aliasing或moire發生的機率,讓畫面看起來比較sharp,相對上,選用R或是B,則對於提高亮度值的解析度,效用就小多了。又因為G的密度高,color interpolation之後產生的誤差較少,所以許多color interpolation的方法都是先將G建立出來,再利用G的資訊來建立R和B,如此可以有效降低false color發生的機會。.........歪桑
感謝您拿這段話肯定我提供給網友們的理論﹝理論不是我的﹞。 看其中兩段 歪桑第一段:製程中的B filter品質最難掌握,變異性最大.. 我說過的話:柯達曾說ccd對藍光感度最低。
歪桑第二段:,所以選擇兩個G的話可以提高G的解析度,提高他的Nyquist frequency,而可以降低aliasing或moire發生的機率,讓畫面看起來比較sharp,相對上,選用R或是B,則對於提高亮度值的解析度,效用就小多了。 我說過的話:以兩個綠點為主,紅藍為主計算出的高解析度黑白影像
歪桑! 看清楚了嗎? 您不要看都沒看清楚就胡亂發言,你認為我的論點何處有錯誤? |
網路會員
|
另外!歪桑兄! 您501篇的發言沒錯。 可是您忽略兩個非常重要的地方。 第一、不可以從未定義標準去否定理論正確性。 第二、要談未定義的東西,那麼請您從頭來過, 解釋定義的文字要多長?要多久?你認為幾個網友會明白? 我用簡單的Lab實際計算一次,大家很快都明白了。
我說過個人專業上的東西給非專業人士看的時候, 必須轉譯為簡單易懂的東西,這才夠專業。 不是只會用專業名詞來表達自己是專業人士。
|
網路會員
| |
網路會員
|
歪桑兄! 再次挑出我說明過的地方。 R128 G128 B128 在影像處理時任何人都會定義為中灰階, 為什麼?因為我說過,先定義才有後續的計算。 而且每個影像處理的人都早已如此作業。
但是您認為把白點定義換掉會影響理論進行嗎? 不過是數據轉移而已。 所以我說,定義不會影響這套論述。 請您不要不看我的發言而再隨意發表。
|
網路會員
|
to 歪桑 兄,
真的很感謝您的回答, 我想我有比較懂Lab 了. 如果我用下面這個說法來說, 是否正確呢? 由 RGB 轉 Lab 是可行的, 但是反向由Lab 轉RGB, 則要指定某個"參考白", 不然不知道要轉到什麼樣的RGB 空間去. 也就是說, 在Lab 空間裡, 是沒有色溫不同的問題, 因為在RGB 空間中的色溫不同問題, 在Lab 空間只有"參考白"的不同而已. 所以我們說的某個RGB, 其實只是Lab的一個子集合?
不過話說回來, 如果我上面的那種"不專業"的講法沒錯的話(抱歉, 我真的不是學這個的), Lab 空間的L 是可以想像的, 但是a, b 到底各是什麼東西, 真的超出我的想像範圍. 我只會實做, 更狹義一點說, 我也只會用Photoshop 來實做, 當一張RGB 的圖轉成Lab 時, 在a 色板及b 色板所顯示的那堆怪東西, 我真的搞不懂它到底代表的是什麼. 有沒有一個比較容易了解的方式來說明給大家了解呢? 關於這個, 我想有興趣的人應該不少, 在這個討論區上, 大家都喜歡拍照, 但是....理論這東西, 我想了解的人, 真的是少之又少吧.
真的謝謝您花時間打字....不好意思再麻煩您一下. |
網路會員
| |
網路會員
| |
網路會員
|
先去除多餘的綠點, 把方陣中的三個紅藍綠直接加總成為"低解析度彩色影像〞, 再以兩個綠點為主,紅藍為主計算出的高解析度黑白影像, 兩個相合併後計算出的色彩誤差會更大。 不相信嗎 ?"
抱歉,真的是沒有人這樣做的啦,就算是早在1970年代的工程師也沒人這樣做,就算是我們的晶片再怎麼cost down,簡化再簡化的結果只能用3*3的color interpolation,高頻部分的aliasing及false color挺嚴重的,也沒有人會用您所提的方法啦。...................歪桑!
不相信! 首先、我舉例,請您看看是不是這樣好嗎?看完再來發言。
第二、"就算是我們的晶片再怎麼cost down,簡化再簡化的結果只能用3*3的color interpolation....歪桑這段話 我不是說,不要把硬體的缺失拿來討論,那是硬體工程師的困難。
第三、您有本事提一套稍微超過我的"基礎"的計算法來瞧瞧。
我舉例了,這也會同時說明第二點→→不要拿硬體缺失當成理論的錯誤, 不要不看清楚又亂說話了喔。
例子如下:﹝這是天文攝影常常使用的方式,跟324頁的做法相同﹞
天文攝影用的單色冷卻CCD,畫素1024*1024, 首先以4個素子為一組拍攝合成512*512的低解析度影像, 拍攝時RGB濾鏡各用一次,也就是分三次曝光, 再拍攝一張1024*1024的高解析度灰階影像, 拍攝時不用濾鏡,並將曝光時間縮短。
之後將512*512的彩色低解析度圖片,與高解析度黑白影像圖片, 依324頁的方式操作一次。 如此方式可以縮短總體曝光時間,但是得到精準的顏色, 顏色誤差範圍在一個畫素之內,因此可以忽略。
當然可以直接以RGB分開拍攝三張高解析黑白圖檔, 再直接組合成RGB彩色圖檔,缺點是總體曝光時間要延長。
這個例子說明二點, 第一、顏色檔案可以不用大,只要搭配高解析度黑白影像, 依然可以獲得非常滿意的相片,幾乎完全騙過眼睛。
第二、直接分開拍攝三張高解析度黑白影像檔並"直接"合成彩色檔。 並沒有出現歪桑說的"再簡化都必須用到3*3個畫素", 也就是硬體缺失問題請不要列入討論. 硬體缺失列入討論文章會寫不完。
|
網路會員
|
......................不是什麼"以兩個綠點為主"啦,也不是要"算出高解析度黑白影像"啦,只是很簡單的 利用相鄰的點的資訊來插出本身這個點所缺少的顏色 而已啦,為什麼你還是要把2*2當作一個pixel呢?.............
那麼,我只好再次、再次、再次請您仔細看看我的發言再評論。 我也再次、再次、再次再說一次。
如果單獨靠利用週邊畫素來預測該點會是什麼色彩, 那麼因為預測誤差,藍紅會比綠誤差多一些, 因為綠色有兩次擷取,所以比紅藍可以少猜測一次, 因為紅藍誤差會多一些,因此整體畫面會"容易"偏向綠色。
所以我說過,必須利用兩個影像檔,一個彩色,一個黑白互相合併, 如果不加入黑白影像檔做計算,除非您很高明, 否則畫面偏黃綠是少不了的。
那個彩色影像檔為何要用2*2再去掉綠色來計算低解析度, 不直接計算高解析度呢? 因為這樣整體畫面雖然降低解析度,但是色彩最不容易產生誤差, 但是如果要直接用高解析度彩色影像檔我也沒意見, 只要算得準就可以了。
所以請不要把我的意思誤解,然後胡扯一堆, 324頁功課請乖乖做好,好嗎?歪桑!
|
網路會員
| |
網路會員
|
我還是再說明一次基礎架構,免得看不懂一直亂說話。
利用黑白影像做為主要解析度與明度的基礎, 以彩色影像做為色彩資訊的基礎, 當然整體色彩或明度計算可以做更複雜的演算, 只要能計算的更好。
但是業餘天文上或是SUPER CCD可以說已經不需要如此麻煩而就能做的更好。
|
網路會員
|
To T2536 的第 505 篇:
"再次挑出我說明過的地方。 R128 G128 B128 在影像處理時任何人都會定義為中灰階, 為什麼?因為我說過,先定義才有後續的計算。 而且每個影像處理的人都早已如此作業。"
並不是所有的色空間的白點的定義都是一樣的,像AdobeRGB,sRGB及Rec BT.470-2 system B, G的白都是定義成D65(x=0.313, y=0.329),但是Rec BT.470-2 system M 的白點卻是定義成C光源(x=0.310, y=0.316),也就是說,如果有兩台螢幕,一台校正成system B,一台校正成system M,則如果在這兩台螢幕上同時顯現(R=128, G=128, B=128)的顏色,你會發現system B的顏色相對於system M的顏色是比較偏黃綠色,而反過來system M的顏色相對於system B的顏色則是偏藍紫色,即使差別非常的淡,但人眼就是能夠明顯的分辨出差異。明明就是R=G=B=128啊,為什麼灰色不是灰色?問題就在於,在不同的色溫的光照射下,即使是一片從380nm~780nm的反射率都是18%的灰卡,也會反射出不同頻率分布的光,請問這塊灰卡的RGB值應該是什麼呢?不是都是灰的嗎?這種不同環境光下造成人眼對顏色判別的問題,四十年前的標準就已經定進去了。為什麼要有不同的白色定義?因為某些國家因為緯度(日照角度造成陽光顏色不同),習慣的顏色(文化差異),家庭中常用的照明設備的不同等,造成對白色的習慣和其他國家不同,所以要有不同的標準,這是從人的實驗就可以知道的事。
想像一個麻煩的問題,如果a圖的色空間system M,而b圖的色空間是system b,現在要將a圖中的一塊灰色(R=G=B=128)貼到b圖中的一塊灰色(R=G=B=128)的旁邊,如果你是這套繪圖軟體的作者,你會怎麼做呢?直接就將(R=G=B=128)填上去,讓兩塊灰色都無法分辨嗎?還是將a圖中的(R=G=B=128)由system M轉成xyz,再轉換到system B中的新RGB呢?想想看。
|
網路會員
| |
網路會員
|
歪桑! 我還是必須特地提醒您,您若不相信我下面的文字, 那麼您還是會計算不出好色彩。 再寫一次這段話....... 如果單獨靠利用週邊畫素來預測該點會是什麼色彩, 那麼因為預測誤差,藍紅會比綠誤差多一些, 因為綠色有兩次擷取,所以比紅藍可以少猜測一次, 因為紅藍誤差會多一些,因此整體畫面會"容易"偏向綠色。 ............再補充一句..膚色會偏暗。
如果您不相信,那麼市面上大多數的數位相機為何都發生這樣的困擾? 為何我說的預測與計算沒有人真正提出錯誤之處?
我可以跟您說,因為我提出的東西是我整合的,但不是我發明的, 我只是因為每天接觸太多數位影像,加上好玩興趣,與細膩的觀察, 因此做出結論提供網友參考。
|
網路會員
|
.......並不是所有的色空間的白點的定義都是一樣的.........
我不是說過嗎? 定義不影響理論,只影響數據偏移 |
網路會員
|
..............380nm~780nm的反射率都是18%的灰卡,也會反射出不同頻率分布的光,請問這塊灰卡的RGB值應該是什麼呢?不是都是灰的嗎?這種不同環境光下造成人眼對顏色判別的問題...................歪桑
您還是不明白。 定義與理論是沒有違背。
不同環境的誤差或反射率都可以在理論中忽略, 那只是偏移量多少的問題, 您要重新定義R50 G50 B128為中灰階也沒問題的, 但是整體計算就跟著偏移多少,毫不影響理論基礎。
|
網路會員
|
N兄! 很抱歉,我沒錢買人蔘了,都被您吃完了, 無法再幫助您了,請原諒我。 |
網路會員
|
To T2536 的第 509 篇:
"天文攝影用的單色冷卻CCD,畫素1024*1024, 首先以4個素子為一組拍攝合成512*512的低解析度影像, 拍攝時RGB濾鏡各用一次,也就是分三次曝光, 再拍攝一張1024*1024的高解析度灰階影像, 拍攝時不用濾鏡,並將曝光時間縮短。"
抱歉,這種CCD一般市面上沒有賣,一般市面上所賣的DSC, DV 或是 camera phone,都沒有人用這種三次曝光的CCD,知道為什麼嗎?只有拍靜物的camera才可以用這種三次曝光的方法,會動的東西都不行,要達到同樣的效果,以往都是用分光稜鏡再加上3CCD的方法。目前看這個討論串的人,手上的攝影設備有99%以上都是用CFA的sensor。
我以為我們從頭開始討論的就是用CFA的sensor,不知道您是有技巧的...(嗶...消音,不要口出惡言), 還是我一開始就誤解你要討論的問題了。
好啦,問題都澄清啦,我的半天時間也花掉啦~
|
終身 VIP
|
nfish 同學 不要這樣子啦
T兄是很有巧思 很優秀的
|