網路會員
|
非廣告!請原諒。 用過我的調色鍵盤的人都很清楚有何特點。 這個調色鍵盤雖然是建立在PHOTOSHOP上面, 但是可以將多數數位檔案上的翳霧消除,恢復立體感。 我不會軟體,因此直接以PS去模擬計算式, 消除數位檔案缺乏立體感與色彩混濁的問題。 正因為多數廠商還原色彩時都採用類似歪桑提供的計算法, 幾乎都無法避免畫面立體感不足與畫面混濁的問題, 才讓我的調色鍵盤有存在的空間。
|
網路會員
|
T兄// 你的調色鍵盤是啥玩意 賣多少錢阿^^ |
網路會員
|
補充說明! 調色鍵盤消除翳霧時,大多是以25個點為基礎去反向運作, 這是我測試影像,預測各家廠商可能使用到的週邊畫素後, 才決定的數值。 |
網路會員
|
chang1030 兄 CCD絕對不是模擬人眼啦 模擬人眼的CCD 要有21G 1B 1R喔 哈哈哈
然後那20G是專門設計給夜拍用的 |
網路會員
|
To T2536 的第 324 篇: " 1.先開啟一個RGB檔案,檔名設為"55彩色"。 2.先複製這個檔案一次,檔名定為"66彩色"。 3.複製66彩色這個檔案.轉為為黑白檔案,檔名設為"66黑白"。 4.將55彩色這個檔案"長寬尺寸"縮小一半。 5.然後將55轉成Lab模式。 6.再將55放大成原來尺寸,經過縮小再放大後我們確定一件事, 55這個檔案真實解析度其實已經降低一半了。 7.Lab的色版中有三個版, 一個是L,負責該畫面的各畫素亮度, 一個是a,負責決定各畫素偏綠或偏洋紅, 一個是b,負責決定各畫素偏土黃或偏藍, 也就是L版決定亮度,ab版決定色彩。 8.將66黑白檔案全選後拷貝 9.將55彩色檔案再複製一個,檔名設定為"55彩色2" 10.點選55彩色2色版中的L版 11.將剛剛拷貝的檔案貼到這個L版上,取代這個L版的黑白影像, 然後將影像轉為RGB檔案。 12.好!比較"55彩色"、"55彩色2"、"66彩色"三張圖的解析度與色彩。 " 我來向大家,也向你說明一下你在這篇的複雜動作到底做了什麼簡單的等效動作,不過先向你介紹一下YCbCr,只要一個3*3的矩陣轉換,就可以從RGB<->YCbCr,遠比RGB<->Lab簡單多了。 一組RGB轉成的YCbCr中的Y和轉換成Lab中的L,除了gamma有一點不同外,這兩個值的意義可說是完全一樣的。Cb Cr是色彩軸,Cb是黃藍軸,如同Lab中的b*軸,Cr是紅綠軸,如同Lab中的a軸,除了角度有一些差異,非線性轉換有些不同外,這兩個色彩空間的本質是完全一樣的,而因為Lab的轉換運算量高,所以除非是在算delta Eab這個色差值來進行色差比較之外,一般在運用的時候都是YCbCr,如JPEG/JPEG-2000, MPEG-1/2/4, H.261/263/264 等等的資料壓縮及交換的工作時,全部是用YCbCr。 一個pixel的R G B三個值可以轉換成Y Cb Cr三個值,但因為人眼對亮度差比較敏感,而對色差比較不敏感,而且一般的自然影像中,Y已經佔據的大多數的資訊,Cb Cr的資訊量相對上少多了,所以在這兩個效果加乘下,Cb Cr的資料都會進行sub-sample,縮成長寬各1/2,或是只有水平方向縮成1/2,垂直維持不變。 前者的chroma format稱做4:2:0,後者稱做4:2:2,而都不縮的稱做4:4:4。JPEG一般是4:2:2,也有4:2:0的,而MPEG-1/2/4, H.261/263/264在實用上都是4:2:0。參考一下吧: http://www.mathworks.com/access/helpdesk/help/toolbox/vipblks/chromaresampling.html。看到這裡了解了嗎?你做了一個等效動作:將RGB轉成4:4:4 YCbCr,再轉成4:2:0 YCbCr,最後再轉回成RGB。這個動作我從十年前在清大讀博士做研究的時候就開始,到這幾年來設計過MPEG-2 encoder,JPEG codec 到 MPEG-4 codec,轉換程式也不知道寫了幾十次了,應該不需要讓你質疑這方面的經驗,以及這個動作所代表的精確意含。 |
網路會員
|
我開始明白點解用G(不應稱作第四個G!我想!)!應該和它的波長光譜特性有關!如用R代替G的話,就變成Rg、Rb,這樣做可能不大好,以光譜的分布特性去睇!不知有否想錯!請指教! |
網路會員
|
TO:歪桑網友!我從沒有懷疑你的知識理論!你的確是這方面的高人!多謝你的教導!! |
網路會員
|
To T2536 的第 548 篇:
抱歉,你這篇打了這麼多字,我卻只能請你去看一下我後來回的第 576 篇,相信如果你能仔細研讀整篇,而不是選擇性的挑一兩個模凌兩可的地方回答,應該會有很多收穫的。
|
網路會員
|
插嘴回一下 T2536 的第 557 篇:
" 首先第一個問題...... 因為CFA既然是矩陣式的,最後要得出連續色調的圖檔,一定要有一個猜附近顏色的步驟,......? 這個問題完全不需要動腦筋.只要把每4個畫素看作一組.各去掉一個綠. 那麼就直接成為一個畫素.4個就剩下一個.放大回去時自然就補回去了. 這樣這四個復原的畫素有沒有色彩誤差值呢? 當然有.但是三色誤差都很平均.不會偏色向任何一方的情況. 因為用到的是3個不同位置抓取的紅藍綠"正確資訊". 那綜觀整個畫面是沒有"整體色彩偏向誤差"的存在. " 要注意每個Bayer pixel都是在不同的位置,所以如果某個Bayer pixel所缺少顏色就從隔壁拿過來,在平坦的地方當然不會有問題,可是在複雜的地方就一踏糊塗了,舉個容易瞭解的例子吧:
R G R G R G ... G B G B G B ... R G R G R G ...
假設畫面感光的時候呢,中間那行的G B G B G B ...是感光到一條貓咪的白色鬍鬚,而上下那兩行則是黑色背景,則結果會是:
0 0 0 0 0 0 ... 240 240 240 240 240 240 ... 0 0 0 0 0 0 ...
然後呢?左上角的2*2中取不同的G來組合的話,RGB就會變成(0, 0, 240)或是(0, 240, 240),這... 這個顏色還能用嗎?
基本的(書上教的)color interpolation就會對水平及垂直的同色點做差異程度的判斷,發現垂直方向差異大,水平方向沒差異,判斷這裡有一個水平的edge,所以color interpolation時就會只用水平的相鄰點來插值運算,而不會用垂直的方向的。
日本的數位相機至少都是用5*5的Bayer pixel來做color interpolation,運算有相當複雜,所以品質都很好,但一旦遇到動物的皮毛或是金髮美女的頭髮的部分,還是難免會有false color假色的問題出現。記得前幾天在Pentax有人討論過一張貓咪的照片,就有這樣的問題。
|
網路會員
|
To chang1030 的第 578 篇:
"CCD需不需要模擬人眼...只是為了記錄色彩"
該這麼說,大家為何不滿意640*480畫素的相機?那如果是100000*100000的相機呢?人為什麼不滿意16色或是256色甚至262144顏色的螢幕,那如果是65536*65536*65536色的螢幕呢?一台錄影機如果每秒只錄5張,你要買嗎?那如果是每秒錄10000張的錄影機呢?對一家公司而言,一個好的產品就是能用最低的成本讓客戶滿意,掏出最多的錢來,只要沒有其他相同的產品讓客戶比較,公司就不用升級產品。
所以呢?CCD紀錄色彩,就是為了讓人看的,如果品質好到人眼根本分辨出來,那就夠了,抓取過多的資料反而只是在浪費錢罷了。Bayer pattern是一個設計簡單,硬體成本低,又能滿足人眼對亮度及色彩的不同的敏感度,幹嘛硬要一個簡單的答案,又不是在學校考試,不是嗎?
|
部落格(9) 終身 VIP
|
Doctor Why
不但專業 尚且幽默
真是 獲益良多
Tks !!! |
網路會員
|
謝謝歪桑前輩用這麼簡單的話來解釋, 這下子....呵呵, 大概都懂了, 也解掉心裡不少疑惑. 像webcam那種數位相機, 品質很差, 是否就是因為裡面的IC做color interpolation所用的演算法比較差所導致? (先不談解析度的問題) 因為webcam那種相機, 出來的顏色都好奇怪. 另外有個問題想請教歪桑, 數位相機的白平衡, 是如何做出來的? 手動白平衡時要給相機一個"白色"它才懂, 自動白平衡呢? 相機是憑什麼去計算出來的呢? 謝謝歪桑....
|
網路會員
|
假設畫面感光的時候呢,中間那行的G B G B G B ...是感光到一條貓咪的白色鬍鬚,而上下那兩行則是黑色背景,則結果會是:
0 0 0 0 0 0 ... 240 240 240 240 240 240 ... 0 0 0 0 0 0 ...
然後呢?左上角的2*2中取不同的G來組合的話,RGB就會變成(0, 0, 240)或是(0, 240, 240),這... 這個顏色還能用嗎? ....................................歪桑
非常感謝這麼多教學。 但是既然您說影像都可以計算到到非常好的程度, 大家卻仍舊對數位影像的混濁色彩與那一層翳霧與色調容易偏黃綠感到不滿。 也就是這些教學完全無法對影像為何混濁提出解釋。 您認為滿意是站在何種基準去看待,為何與消費者落差這麼大?
下面我繼續對你所做的例子再進行解說,說明你的說明例子某些幾乎無意義的地方。
|
網路會員
|
0 0 0 0 0 0 ... 240 240 240 240 240 240 ... 0 0 0 0 0 0 ...
然後呢?左上角的2*2中取不同的G來組合的話,RGB就會變成(0, 0, 240)或是(0, 240, 240),這... 這個顏色還能用嗎?...........歪桑
又一次似是而非的概念。 我用實際計算結果說明歪桑並未真正做完324頁功課, 而僅以直覺做說明,因此做出錯誤結論,而造成誤解。
歪桑! 看仔細。
第一、這樣完全色調完全分明的東西, 且完全水平的畫面於自然界中或拍攝中機率有多高? 所以首先如果以機率問題這個地方可以幾乎忽略。
第二、算式中那個黑白取樣我是否解說過, 是以兩個綠色為主,紅藍為輔, 再配合彩色低解度影像檔與任何方式預測灰階與線條, 也就是在計算高解析灰階影像檔案這個過程中, 即可抓出〝線條明暗分布〞。 您卻完全忽略這個部分。
所以 我清清楚楚的再說一次, 低解析度彩色影像檔"主要"負責抓取色彩, 在Lab空間中,主要負責決定a、b色彩座標, 高解析度灰階影像"主要"負責分辨畫面的解析度與明暗, 在Lab空間中,主要負責決定L的亮度座標
所以,即使在您提的極端青色線條﹝B240藍色加G240綠色﹞例子當中, 只要實作一次便會發現您的想法完全錯誤。 請各位模擬歪桑提供的圖檔進行324頁作業一次。 1.開一個RGB新檔 2.畫面第一排畫素全部選取,填入黑色。 3.畫面第二排畫素全部選取,填入B240 G240。 4.重複2、3的動作,依序填色下去。 5.照324頁的做法重頭到尾做一次。 6.看影像是否如歪桑所說的完全不能看。
我並沒有實做,我僅以心算先告訴各位結果............ 黑色線條依然存在,亮青色線條依然存在。 各位實際試做再說吧,看我正不正確。
我認為,如果要提出極端例子做說明, 歪桑!您的計算式同樣會碰到無解的難題。 這樣的討論就會失去意義。了解嗎?
|
網路會員
|
歪桑! 請您特別注意這段文字。 這是324頁的主要精神,希望您真的做一次,並理解之。 否則恐怕會繼續提出錯誤的例證。
****************************************************** 低解析度彩色影像檔"主要"負責抓取色彩, 在Lab空間中,主要負責決定a、b色彩座標, 高解析度灰階影像"主要"負責分辨畫面的解析度與明暗, 在Lab空間中,主要負責決定L的亮度座標 ******************************************************
|
網路會員
|
我坐車去,等各位做完上述實驗再說。掰~* |
網路會員
|
忘了說,歪桑是以貓咪白色鬍鬚為例子。 最後的結果會出現貓咪鬍子為亮青色的結果, 僅用324頁基礎算式色彩確實會偏離,但是仍然屬於亮色系, 也就是說鬍鬚依然存在。 我也說過,可以再加入更複雜的計算, 這個極端例子造成的問題會再降低。
不過,有一點,這樣筆直的貓咪鬍鬚非常罕見。 |
網路會員
|
TO starphoto:
香港的朋友,你終於也醒了...
===================================== 我開始明白點解用G(不應稱作第四個G!我想!)!應該和它的波長光譜特性有關!如用R代替G的話,就變成Rg、Rb,這樣做可能不大好,以光譜的分布特性去睇!不知有否想錯!請指教! =======================================
PS : 下次盡量別打"香港特別行政區"的特別用字吧,還好偶是廣東人,會講廣東話,你打的字我都看的懂,台灣人十個有九個是看不懂...睇、點解...這些字...
|
網路會員
|
歪桑在576篇的計算相當簡明易懂,感謝。
如果到目前為止我的理解沒有錯,那歪桑談的是現今業界普遍採用的解raw檔方法,而T2536兄談的則是他從天文攝影方面的經驗,所衍生的另一種解raw檔的方式,有機會可以提高解析度、色彩正確性等等,但業界目前並沒有這樣做,是嗎?
|
網路會員
|
修正一下小弟前一篇的發言, 對於raw檔演算法有興趣的人不妨看看這個網頁: http://www-ise.stanford.edu/~tingchen/main.htm在section II裡的演算法概述中, 歪桑的說法即類似bilinear interpolation, T2536兄的作法比較接近smooth Hue transition的樣子(不知有無誤解?) 還有一些更複雜的edge sensing或color correction解法, 顯然這些演算法都行之有年, 只是不曉得何者最被廣泛運用就是..... 當然算了半天, 究竟為什麼要兩個綠色還是沒有定論的樣子,呵呵... ^^ |