網路會員
|
也不錯! 手札五虎將....... |
網路會員
|
§Ú²q¤¤¤Fµ¡I |
網路會員
|
AKQJ10兄!﹝是大順的意思嗎?﹞
謝謝您的指教,呵呵!
|
網路會員
|
T2536綱友!!經找高人指教,睇過您的言論內容,您做的實驗理論都是錯誤!只係自娛一番!而且所有人言論都錯誤了!只係高人想提醒大家! |
網路會員
|
除了歪桑綱友言論正確和starphoto估中了!
|
網路會員
|
------------- 矩陣架構下的CCD 實際上長邊兩個像素(RB)、短邊也兩個像素(GG) 所擷取的光波資訊還原成RGB時只有一個"圖素"(RGB) ------------ 在仔細研讀一下歪桑的文以及提供的演算法網業 我知道自己錯在哪了 BAYER的CCD不是用2*2為單位去抓一個圖素 這樣做出來的東西角西度變成只有四分之一會沒人要 一般是用3*3或5*5的MATRIX在透過演算法把每個PIXEL上缺的RGB內插出來形成一個完整的RGB值 演算法有分適應性與非適應性演算法 一般我們在PHOTOSHOP用的都是非適應性演算法 (因為圖檔裡已經沒有CCD矩陣所抓的RGB原始值無法無法是用適應性演算法) 而數位相機用的是適應性演算法藉由人工智慧可以判定在周圍圖素的關連性內插出一個相關的值 在CFA的數目越多下,演算出的值會越接近正確
|
網路會員
|
另外雖然3CCD的每一個點抓的都是真實RGB 色彩還原性較純較高 但是解析度上 300萬解析度的圖跟矩陣架構下的600萬解析度的圖比較 3CCD的只能透過非適應性演算法(PHOTOSHOP的那三個都是) 內插到600萬像素 而矩陣式600萬像素的圖本身在相機內部運算時已經是用適應性演算法內插出點 所以在解析度以及色彩連續性上都會比3CCD的300萬來的好
|
網路會員
|
謝謝starphoto兄指教!
不過starphoto兄沒注意到一點,歪桑兄說的東西跟我說的東西是兩個不同階段的, 他說的是初始階段的計算原則與定義,324頁的計算跟那是無關的, 所以我不是一開始就說不要去管定義問題。 因為例如哪一顆CCD特性如何那是一開始歪桑這類高級工程師們會去完成與測試的事情。
324頁的實驗完全跟這些硬體不需要扯上關係。 因為以RAW檔案來說,當你抓到RAW時, 這個RAW﹝單色資訊檔案﹞已經被定義完成了, 剩下的只有後端的彩色還原演算而已, 324頁的實驗是從這個地方才開始,也就是324頁說的是這個還原色彩的部份, 而這個色彩還原的計算方式我也說過, 324頁的方式是一種很簡單的方法, 但是我從沒說過唯一的方式,因為然還有其他各種方式, 324頁的方式類似天文攝影常用的色彩還原技巧, 具有很高的色彩還原能力與簡單的演算, 當然如果硬體不良或前端定義時就不好當然一定跟著受到對等程度影響。
歪桑的前端硬體結構本來就不是我想談或有能力說的, 因此我一直將我要說的東西集中在得到RAW的單色資訊檔之後才開始, 這也就是為何我說歪桑說的東西都沒錯, 因為前端硬體部分即使歪桑說錯我也是不會知道的,因為我不是像他一樣的硬體專家
我對歪桑唯一提出的問題只有GRGB多點重疊計算容易使《畫面色彩混濁》, 與《可能色調容易偏綠》與《膚色偏暗》這個部份, 但是我一再說過,這是現實中確實發生的問題, 也一再說過加入《如果計算沒有很小心的話,很容易..》的字眼, 我從未說過不能用那樣複雜的方式做計算。
所以請starphoto兄先再看仔細一次,明白我真正的用意與說法!
|
網路會員
|
aniceb2k 兄! 您一樣誤解324頁的用意了。 324頁很明白指出必須要搭配一個高解晰的黑白檔案資訊合併計算, 不能只用單純2*2來做彩色計算。
還有不要把這個計算放在硬體初期的光線擷取開始,那樣就放錯位置了。 天文攝影中是這樣子的,例如, 用640*480 Pixel分別抓取R、G、B單色資訊檔案, 除去濾鏡,再用2048*2048抓取高解析單色灰階資訊檔案, 然後再將兩者混合。
也就是說324頁的做法已經是在後期,是在硬體抓取下來並且確認各色灰階後才開始, 你們會誤解的就是在這個順序而已。
確認硬體去取得各色灰階資訊並非我們這些一般攝影者有能力做或改變的事情, 這是相機出廠時就已經完成的東西,也就是我說的歪桑這類高級軟硬體工程師的工作。
我們使用者能做的事情就是類似324頁或是一些解RAW檔案公司的軟體一樣, 去把這些已經形成的RAW灰階檔案用自己的方式重組一次, 並希望去得到自己希望的色彩。
不知道這樣說夠不夠清楚。
|
網路會員
|
當然,有一點我漏掉了,歪桑說過這種計算不可能放在相機內部, 這我不知道可不可以,我不是工程師。
但是重點在於,對有興趣去解RAW檔案的單眼數位相機使用者來說, 本來就是在自己電腦中去做的。 |
網路會員
|
|