網路會員
|
我決定用貼圖處理這個討論.否則會爭議不斷. 慢慢等
|
網路會員
|
我覺的N兄說的對..... CCD最終如果不是為了模擬人眼那照片拍給鬼看喔 即使拍鬼....也要拍的讓人看的到阿 所以一切的影像都是為了給人看 是模擬人眼...... 只不過到底需不需要用這個G.....T大說這個G不是用來模擬人眼 而事實...可能是事實這個G當初真的是為了模擬人眼 T大的論述是説....那是一群傑出的白痴科學家所作出來的多此一舉 利用現有的beyer batten...其實就可以描述更好的影像 為甚麼不用呢???? 如果不認同的話...來咬我阿...不然就閉嘴 真是天才阿.....T大 |
網路會員
|
利用古老的天文學色彩重建理論(抱歉好像沒這種理論我姑且稱之T理論} 利用低解析度的RGB跟一個高解析度的灰階重建出來的影像 因為是真實的RGB色彩所以得到接近真實的色彩 不需要複雜的計算..判斷...模擬...取樣...假設 這樣會增加運算成本還有最重要的是色彩誤差 然後一而再...再而三的修正..... 這不是證明...這種做法是由一群傑出的白痴科學家所作出來的多此一舉 T大....趕快去申請專利阿
|
網路會員
|
專利! 我不是說過不是我發明的!天文界用了很多年
|
網路會員
|
.........所以一切的影像都是為了給人看,是模擬人眼......chang1030
唉呀!腦子還在老地方打轉。 感光元件不需要去模擬人眼,只要捕捉真實光線。 雖然...... 鏡頭 + 感光元件 + 電腦 與..... 角膜水晶體 + 視網膜 + 大腦 看起來很像。 但是如果仔細思考是完全沒有關聯的。
除非結構是這樣.... 鏡頭 + CCD + 大腦 .....那這樣可以啦,這樣我就承認CCD是要模擬人眼。
請一定要分清楚真正主客與前後關聯。 前面有很多東西都是〝乍看應該如此,實際不然〞的地方。
|
網路會員
|
To starphoto 的第 542 篇:
昨天回得太多了,該看的東西都沒看,結果今天對同事講解新project該做的功能,講得實在是太差了... 今天要節制一下...
"TO歪桑:我想問兩條問題,以你的專業知識去睇CCD VS CMOS誰會成為市場的大贏家!因為覺得現在的數位市場有吹向CMOS的勢!連N記S記都向CMOS發展! 大多數人都說兩者互有優缺點,但以你之見誰較佳在市場上和以兩者未來技術的進步去睇!誰會勝出!"
其實對未來的預測我是沒什麼研究啦,因為以我的工作來說,如果客戶要用Sanyo的CCD,我們就調一個最好的結果給他,如果客戶要省錢用OmniVision的CMOS,我們也會盡量將品質調到最好。以DSLR的發展上來看,CMOS似乎有不少技術的改進而使得越來越多產品在使用,但一般消費相機以及高階的照相手機,未來幾年應該還是CCD的天下。
|
網路會員
|
To 太簇 的第 543 篇:
"但是 CCD用逐行掃描 這樣子不是會影響 快門速度 ?" 如果是FFT(full frame transfer)當然會有很大的影響,快門關上曝光完之後,得要等整張的資料傳完,才能開始打開快門,開始曝光下一張。不過這種CCD主要是用在DSLR上,每個感光元件的面積大,而又不用有錄影的功能,再加上畫面大,處理影像的時間才是瓶頸。
如果是用interline的方式,則每個感光元件的旁邊會有一個傳輸通道,感光完的資料就移進去傳輸通道,之後就可以開始感光下一張,由傳輸通道來傳輸資料,好處是每秒張數多,可以不用機械快門,缺點是傳輸通道佔掉感光元件的面積,SNR會下降。
|
網路會員
|
To nfish 的第 546 篇:
我提到的"冷嘲熱諷的語氣",其實是昨晚太累了,我看錯了啦,T2536網友是以他多年的經驗來看我所回答的東西,因為雙方的基礎出發點就不同,難免互相會有一些誤解啦,還算不是上冷嘲熱諷啦。
|
網路會員
|
T大: 您說的更玄了 可能會有很多人聽不懂 因為他們都看"小牛頓" 哈哈 ------------------ |
網路會員
|
您用天文學的知識跟角度來看光線 那不就把前世今生跟來世都看光了 當然不需要肉眼囉 真屌!!
|
網路會員
|
感光元件不需要去模擬人眼,只要捕捉真實光線.....T大
這句話...現在我算看懂了^^ |
網路會員
|
可能是事實這個G當初真的是為了模擬人眼 T大的論述是説....那是一群傑出的白痴科學家所作出來的多此一舉.........
1030兄! 多出那個綠我說過是不得已的,因多一個位置。 我說的笨蛋專家是開創出"CCD多一個綠點為模擬眼睛特性"的那個專家, 這種錯誤論點看似正確,實際上卻落入一個陷阱當中, 很容易讓後人錯誤跟進。
|
網路會員
|
感光元件不需要去模擬人眼,只要捕捉真實光線.....T大
這句話...現在我算看懂了^^.............1030兄
真懂假懂?開玩笑的嗎?呵!
|
網路會員
|
嗯 用RGB三原色(低解析度)跟一個高解析度的灰階 而這個灰階其實可以由RGB取得即可 便可組成高畫值且接近真實色彩的影像 |
網路會員
|
用RGB三原色(低解析度)跟一個高解析度的灰階 而這個灰階其實可以由RGB取得即可 便可組成高畫值且接近真實色彩的影像..............1030兄
不完全對喔! 高解析度灰階無法完全由RGB三原色(低解析度圖檔)取得, 必須獨立加上混合計算, 也就是RGB低解析度圖檔這時可以幫上一些些忙忙,不是完全。 灰階的計算其實比彩色取得更難, 難在線條的細膩度相較於色彩準度而言,比較不容易騙過眼睛。 當然,整體計算要更複雜也可以。 |
網路會員
|
這樣下去是討論不完的,我先花一些時間將數位相機的前端frontend的步驟說明一遍好了,否則這樣片片段段的回答,我想很多有興趣的網友應該也是很難懂吧?
一個Bayer CFA的CCD/CMOS吐出來的raw data可表示如下:
R Gr R Gr R Gr R Gr... Gb B Gb B Gb B Gb B.... R Gr R Gr R Gr R Gr... Gb B Gb B Gb B Gb B.... ..........................
其中的每個RGB都是linera RGB,也就是沒有經過gamma corrected過的,通常是8bit~14bit之間。Gr Gb的color filter基本上是一樣的,但因為在製程上是兩個步驟分別完成的,所以兩者對顏色的特性(CMF, color matching function)難免會有點不同,但這可以很容易用black level compensation或是color collection來修正。
接下來第一步是black level compensation,也就是將暗電流造成的影響除去,通常是減去一個值,R Gr Gb B各自不同。接下來是bad pixel compensation,將一些壞點的值用週邊的同色的值來取代,bad pixel的位置可以至動判斷,或是用查表的。
接下來就要作color interpolation,對於每個Bayer pixel所缺少的另外兩個顏色,用週邊的點來補回。舉個很簡單的方法,R點的G值由上下左右四個G(兩個Gr, 兩個Gb)加起來除以四,B值則由斜角的四個B加起來除以四。B點所缺的R G也是相同的做法。Gr的R值由左右兩個R來平均,B值由上下兩個B來平均。Gb的做法也是和Gr一樣。這樣每個pixel就有完整的R G B值了,這是很簡單的3*3的做法,這樣出來的結果在平坦的地方沒什麼可挑剔的,基本上就跟三次曝光或是3CCD的結果可說是一模一樣,問題是在有細節的部分,品質就很難接受了。我們的做法雖然也是3*3的,可是有對edge加以判斷,再加上false color elimination的動作,品質算是還不錯的了。
每個工廠,不同製程,不同批次作出來的sensor,上面的color filter的性質一定不一樣,再加上在半導體表面上的這個color filter的性質還遠不及我們一般便宜就可以買到的彩色玻璃的顏色純淨度,可說是要紅不紅,要綠不綠,要藍不藍,和sRGB或AdobeRGB所定義的顏色有相當的差距,所以接下來的步驟就是color correction,將每一個點的R G B成上一個3*3或更大的矩陣,來將顏色修正。這個color correction matrix的話,sensor廠一般都會提供,但還是得要自己在實驗室用標準的光源箱及色卡來測量才會比較好。
接下來有一些動作則是看各個產品要做到什麼程度,像hue saturation contrast brightness等的改變,喜好色/膚色的調整,noise reduction等。
最後要壓成JPEG之前,要將RGB轉成YCbCr,而在這之前就要先將linear RGB(到目前為止的RGB值都是linear的)經由gamma correction轉成non-linear RGB,這個gamma不同的色空間會有不同的定義。經過gamma corrected的non-linear RGB的亮暗感覺才是符合人眼的感覺。做完RGB->YCbCr,就可以開始壓成JPEG檔了。
這裡面的color correction及gamma correction都絕對是不可少的,否則顏色一定(100%!)會出問題,對沒有經過這兩個步驟的raw RGB就來討論顏色或亮度不對,那是完全沒有意義的。
這篇應該很容易懂,可以解決一些人心中的好奇了吧?^o^
|
網路會員
|
人像改色 如果有曝光不足的 可以.... 先復製一個圖層... 再把該圖層以曲線調淺 然後再與原圖層做融合 再調明亮可得到更好的影像 所以一開始我就對T大的論述蠻感興趣的 很多人看不懂T大要說甚麼 CCD不需要模擬人眼.....只要真實的記錄色彩 其餘是後製描述的問題 ---------------------- 有部電影叫記憶裂痕 美國國防部研究一種機器 可以看到未來.... 雖然實際上還沒有 但愛因斯坦的相對論確有這樣的描述... |
網路會員
|
歪桑可以請教您一個問題嗎 CCD...尤其是那第四個G 到底是不是為了模擬人眼 ------ 或者簡單說 CCD需不需要模擬人眼...只是為了記錄色彩 謝謝! |
網路會員
|
非常感謝歪桑提出其所學的基礎計算法來參考。
我也發表對此計算的看法, 首先是這一段........... 這是很簡單的3*3的做法,這樣出來的結果在平坦的地方沒什麼可挑剔的,基本上就跟三次曝光或是3CCD的結果可說是一模一樣,問題是在有細節的部分,品質就很難接受了。我們的做法雖然也是3*3的,可是有對edge加以判斷,...歪桑
正符合我提出的以週邊畫素來預測該畫素色彩,會造成顏色混濁。 並非絕對不可以這樣做。 但是應該記住一件事,週邊畫素永遠無法針時計算該畫素正確色彩, 因此,混合越多週邊畫素,則畫面出現翳霧的情況會越嚴重。 即使盡量去判斷邊緣的分界線,仍然難以達到完美程度, 判斷過度者會出現邊緣銳利,平滑處模糊的現象, 判斷不足者會出現整體畫質低落,細節不足。
下面接第二段 |
網路會員
|
本篇接續579頁
............這裡面的color correction及gamma correction都絕對是不可少的,否則顏色一定(100%!)會出問題,對沒有經過這兩個步驟的raw RGB就來討論顏色或亮度不對,那是完全沒有意義的。.........歪桑!
謝謝歪桑! 非常正確,所以我提出過,白點或其他定義與資訊轉換是工程師的事情, 軟硬體工程師應當將資訊處理到一般人理解的狀態。 而一般人要處理的就是RAW或者RGB的後續運用。
但是其實在轉出成RGB或更早的RAW之前的這些資訊, 工程師即可以此資訊進行類似324頁那種色彩空間轉換混合的計算, 這個計算方式如果只用補插點與配合CCD色彩對應圖表判斷與計算, 不但會更複雜,也會出現我之前所提到的會發生的問題。 |