網路會員
|
to coolnax99999 兄,
呵, 這消息看來真的是蠻shock 的, 至少對我而言是這樣. 不過做一做T 大提的那個實驗, 會發現, 我們的眼睛, 好像就是真的這麼容易受騙.... 眼見為憑啊, 沒看到的不能亂說, 看到的, 我們不能說它錯. 所以真正的王子是誰? 我想, 只要眼睛能被騙過, 這好像不是那麼重要. 所以, Fujifilm的工程師能用這招, 我真的覺得他們好聰明哦. 我也想聽聽歪桑大大說明一下Lab....好多人都不懂耶.
|
網路會員
|
..............如果以300萬畫素素質及成本.. 能讓肉眼覺的是600畫素素質.....那真實的600畫素素質就沒意義 那t兄的預測就會成真...................coolnax99999 兄,
不對!不對! 還是沒清楚我的意思。 600萬畫素ccd一次曝光時是不可能超越600萬畫素的。 而現在bayer ccd 600萬畫素者實際只有300萬畫素左右的解析度, 富士SUPER CCD的做法雖然顏色不能達到100%正確, 但是解析度卻可以達到600萬畫素。
那如果富士願意以同樣架構製造300萬畫素的廉價機種, 由於計算簡單,相機內的處理器可以相對降低成本, ccd也可以降低成本, 品質卻能得到現在如D70、300D這些600萬畫素相機的水準, 因此我說除了X3技術以外,新型態的SUPER CCD會所向無敵。 |
終身 VIP
|
T兄 能不能麻煩用您用的兩次累計演算法 所作出來的照片圖檔畫面 在作一次 去除色彩 讓它只留下灰階 <------黑白照片 然後貼圖 我很想知道這會變成什麼 對不起啦 我沒買 PS ( 我覺得粉貴 買不下手 ) ,我也沒學過PS 所以您說的實驗我都沒辦法作。 我覺得這種演算法 在參加解析度比賽的時候會贏 ( 以黑白線條測解析度的時候的時候) 但是拍出來的照片 可能就會有很多爭議 <----------- 顏色會暈開 畫面變得奇怪 ....... http://finepix-fan.com/test/s3pro/0007.jpg........以這張是AMIN1126 兄在〝Fujifilm FinePix S3 Pro 正式發表了!〞的照片為例 我無法從照片確定 窗台是長青苔 還是演算所照成的顏色誤差 還有您這個有演算法,對於提高解析度相當好。.但是並不能證明 Bayer CCD 當初為什麼是選綠色作為第四點顏色的理由 。 因為 這裡會有 創造--> 改良--> 創新--> 的技術演進過程。 |
終身 VIP
|
小匪兄 想請問 生物學界 對於人的眼球細胞 ROD 跟 CONE 的認識 以及它們的感光模式, 在生理學上的研究 是什麼時候開始? 到哪一個年代, 有了一致性的結論 ,確認眼球細胞與光和顏色的關係 ?
|
網路會員
|
哇,半天沒上來,又有一大堆文章了,沒時間把整個看完,只好一個一個回答了,如果某些我的回答,在之後有其他人回過了,那也請見諒啦。
"謝謝歪桑解說. 不過在我的了解下, 這樣說法有些怪怪的. 也許是我的了解有誤. 歪桑說三色CCD 的每一個pixel 都只有RGB 的其中之一, 據我的了解, 這樣好像是說, R 的感光素子(上面有R color filter的photo diode), 算是一個pixel, G 也算一個pixel, 同理B 也單獨算一個. 而我的認知是, RGGB這樣一組, 稱為一個pixel 才是合理的吧. 如果是R 單獨算一個pixel, 它的G 值跟B 值是由旁邊插補來的話, 這樣子以600萬畫素的CCD 來說, 應該是要稱為有2400萬有效畫素. 因為RGB 任何一個都擁有自己的值及其他插補來的值. 這樣看來好像有點怪怪的呢."
喔喔,原來你們是這樣誤解的啊... 把RGGB四個Bayer pixel視為是一個pixel,這就是錯誤的開始啦。我想你們不用懷疑我下面的回答的正確性,頂多可能會有一些遣詞用句上的小錯,因為最近這兩年來,我的一部分工作就是在設計影像信號處理(Image Signal Processing, ISP)的晶片,測試過的sensor包括Sanyo及Sony的CCD,CMOS則有OV的9640,9650,2620等,還有PixArt,Samsung及Micron的等等,相關的spec,paper及patent也看了一大堆了。
一個號稱2M pixel Bayer pattern的sensor,如 OV 2620,他的有效pixel數約是1600*1200=1920000,排列方式如下(稱作 Color Filter Array,CFA):
RGRGRGRGRGRG... GBGBGBGBGBGB... RGRGRGRGRGRG... GBGBGBGBGBGB... ...............
所以總共有480000個R pixel,960000個G pixel,480000個B pixel,但每個pixel都只有RGB其中的一個值,所以接下來就要有color interpolation的演算法(這裡有一堆專利),利用週邊的資訊,來重建出每一個點的RGB值,最後就真的是1920000個pixel。如果將四個點合成一點,則最後出來的只有480000個pixel,對不起,這種產品是沒人要的。
除了Bayer pattern,早期還出現過一些很值直覺的方法,如R-G-B Staggered CFA: RGBRGBRGB... GBRGBRGBR... BRGBRGBRG... ............ 或是Sony Mavica CFA: RGBRGBRGB... RGBRGBRGB... RGBRGBRGB... ............ 等等。前者的問題是比Bayer pattern複雜,不是2的倍數,硬體成本較高。後者對垂直線的顏色很容易出問題。在井字型排列,只有三種filter的條件下,Bayer pattern是優點最多,缺點最少,又沒有專利問題的方法。
所以了解了吧,沒有什麼多抓一個G的問題啦。
|
網路會員
|
哦!原來這樣實情!! |
網路會員
|
接下來回這個好了: "我用實際計算來證明那個多的綠點實際上會造成膚色或許多畫面帶黃綠色, 或者使膚色變暗,並破解您對RAW檔案去樣計算的錯誤觀念。" 關於色偏,我先用反問法好了。請問你知道你的螢幕的R G B的xyz(CIE 1931)是正確的,符合sRGB的標準嗎?請參考 http://www.w3.org/Graphics/Color/sRGB。當然,我不是在懷疑你的螢幕有色偏,而是想讓你看一下sRGB有定義標準的gamma,white point,R G B的xyz值,及如何由XYZ轉成RGB(注意,這是sRGB的RGB,不是NTSC的RGB,也不是AdobeRGB的RGB...) 好啦,即使是存在一個sensor,他的CMF(color matching function)是符合XYZ,他感光到的raw RGB值,也要經過color correction的動作(喔,還有gamma correction)才能轉換成sRGB的RGB,那各家sensor上的filter的CMF都不一樣,你將sensor感光完的raw data就當作是sRGB的RGB,那不是錯得太嚴重了嗎?我們實驗室都有一套程序來拍標準的圖檔,求出各個sensor的color correction matrix(喔,還要求gamma curve),才能夠將color interpolation之後每個pixel的raw RGB值轉成sRGB的RGB值,這樣在PC螢幕上顯示出來才是正確,漂亮的顏色。 |
網路會員
|
歪桑! 只好請您重頭再看一次,並確實做好324頁的功課, 然後再思考一次。
我提供給大家參考的計算法是天文界用了10年以上的東西, 早已經過驗證,用在一般攝影上原理也是完全互通的。
我再次說明多一個綠點無法靠複製紅藍來做到完全的補正成為比例正確的色彩。 4個點中, 二個綠點是該區三色中正確綠色比例,為2個完整綠色資訊 = 2綠 一個紅點是該區三色中正確紅色比例,為1個完整紅色資訊 = 1紅 一個藍點是該區三色中正確藍色比例,為1個完整紅色資訊 = 1藍 複製紅點則有誤差值,假設誤差為1/3,扣除1/3後則為 = 2/3紅 複製藍點也有誤差值,假設誤差為1/3,扣除1/3後則為 = 2/3藍 總計正確綠色資訊量為2,紅色為1又2/3,藍色為1又2/3, 因此用此比例計算無法像你說的, 複製的紅藍可以去搭配第二顆綠點得到正確三色光比例。
以600萬畫素而言, GRGB CCD可以抓到正確資訊為 300萬畫素位置的正確綠資訊 150萬畫素位置的正確紅資訊 150萬畫素位置的正確藍資訊 總計最多600萬畫素的單色資訊量,
首先無法用600萬畫素的單色資訊量,藉由複製去得到正確1800萬畫素資訊量, 而得到正確的600萬畫素RGB彩色影像檔。 第二您也無法確定複製的紅藍會是該區的正確紅藍色光比例, 因此,硬要複製再加入計算便無法正確計算出全畫面的三色光比例。
您所假定的都是複製的紅藍也是正確紅藍資訊的觀點來看, 實際上卻是做不到的。
您自己再思考看看吧。 |
網路會員
|
哈哈哈哈!!! coolnax99999兄 錯錯錯錯!!! 你用影像創作....不也是欺騙人的眼睛嗎 作品的方向跟內容才是重點 太婆婆媽媽的細節.... 而且是連眼睛都騙的過的細節 可認真也可以不要太計較吧! |
網路會員
|
.......................關於色偏,我先用反問法好了。請問你知道你的螢幕的R G B的xyz(CIE 1931)是正確的,符合sRGB的標準嗎?請參考 http://www.w3.org/Graphics/Color/sRGB。當然,我不是在懷疑你的螢幕有色偏,而是想讓你看一下sRGB有定義標準的gamma,white point,R G B的xyz值,及如何由XYZ轉成RGB(注意,這是sRGB的RGB,不是NTSC的RGB,也不是AdobeRGB的RGB...)...................歪桑 基本上我已經告訴過您定義在理論上只會改變定義,不會改變理論的執行。 您如此的定義恐怕反而會誤導正確的思考,要破解您的想法太容易了。 根本無須管這些硬體或色彩空間轉換的東西。 我舉實例破解給您看。 首先我先發一個問題,以RGB各8位元為例子, R128 G128 B128我們一般認定為中灰色, 那麼請問一個問題, 把這個中灰色在設定符合sRGB的螢幕顯示, 跟把這個色彩放在設定符合Adobe RGB1998的螢幕顯示, 那此時這個中灰色會不會有改變? 有沒有誰會說它不是中灰色? 沒有! 因為數據上它仍然是中灰色R128 G128 B128, 只是可能因為不同咖瑪設定而有亮度變化去符合某些需求, 實質上是一模一樣的。 不需要去管它在印刷上表現的亮度與在高對比液晶電視上有何不同, 因為那是屬於後端不同顯示材料的特性與個人眼睛喜好的需求, 完全不影響R128 G128 B128 本身為中灰色的事實與本質。 你談了"後端色彩管理",又談到"前端硬體如何定義與如何換算去定義RGB", 但是這些東西完全不影響理論進行。 第一、軟硬體如何擷取與換算最終目的就是要抓出自然色彩標準的RGB給眼睛看, 抓不準是軟硬體的缺失,與理論無關。 第二、而後端色彩管理要符合什麼標準顯示是在基本影像已經完成之後的事, 因此你別把後端要去做的事重新定義為前端錯誤或是要重新定義去修正。 要不然會發生發生一部數位像機到底要拍給螢幕還是要拍給印刷的困擾, 有這種事情嗎?沒有過啦。 |
網路會員
|
太簇兄 大家還是專心討論CCD啦 哈哈哈哈
生物史不是我的專長 只能就手邊的資料告訴你 最早是1802 英國科學家THOMAS YOUNG從彩虹中 提出人類視網膜有RBG感應 後來1852 德國科學家 Hermann von Helmholtz加以實驗支持 成為最早的 Young-Helmholtz trichromacy theory |
網路會員
|
就一致性的問題 很難回答 科學沒有所謂的真理 只有大家比較能接受的理論 對眼球的研究 一直到1970年代還是持續進行著
對了 T大 ROD跟CONE在視網膜的比例 是20:1 所以更證明了CCD用兩個G 跟人眼一點關係都沒有 |
網路會員
|
............那各家sensor上的filter的CMF都不一樣,你將sensor感光完的raw data就當作是sRGB的RGB,.................歪桑
超級大錯誤! 為何我要去管我演算出的RGB符不符合sRGB色域,那可以之後設定。 根本不是相機演算時要作的東西。
先清楚一件事情,在PS的演算上與眼睛的感受性上只有RGB, sRGB或是Adobe RGB是定義出來的一個色域,限制出一個RGB的最大領域, 以符合或避免色彩有不能顯示後端或超過後端需要的色域範圍。 這個東西不能在一開始就限制,而是後端色彩管理才做的東西。 計算時只要清楚知道一件事:等量RGB等於灰階,不等量RGB等於彩色。這個定義。 該符合怎樣特性是為後端色彩管理。
我用數位相機證實證實〝誰管你前端工廠怎樣做,只要給我RGB〞這句話。 可是過程太簡單了,別說我扯濫隨便帶過。
拿一部數位相機,把"彩色"檔案抓下來,隨便抓一個點取樣, 看數字, 如果RGB不是等量,那該點應該屬於彩色,無論它多亮多暗 反之就是灰階,也無論他多亮或多暗。
也就是拍攝白牆,如果不是RGB等量, 那麼請你這家公司重新設計相機,要不就關門。 因為最初的定義上,眼睛看到等量RGB就是白色, 這個白色可以亮到眼睛痛或暗到眼睛看不到, 沒關係!那是這家工廠的本事,相機寬容度可以超過眼睛,有本事, 只需要在後端壓縮到眼睛範圍即可, 所以,RGB是要定義在sRGB之前的。 RGB是基礎定義,sRGB是後續的色彩管理,架構在基礎的RGB上面。 把前後顛倒就是超級大錯誤。
|
網路會員
|
ROD跟CONE在視網膜的比例 是20:1............
小匪兄! 謝謝您的資料,我只是想知道綠感細胞多過紅藍兩倍是假專家的說法, 還是真正經過研究的。 因為偽科學太多了,實在難以辨別。 |
網路會員
|
..............如果將四個點合成一點,則最後出來的只有480000個pixel,對不起,這種產品是沒人要的。..................歪桑!
我的計算你只看到一半,請回到324頁先做一次實驗。
|
網路會員
|
.....................因為最近這兩年來,我的一部分工作就是在設計影像信號處理(Image Signal Processing, ISP)的晶片...........歪桑
恭喜! 不過我建議您找一下天文用CCD的資料,對您幫助很大。
基本上無論您怎樣抓到訊號,最終都是要先分做3筆資料當作RGB的基礎, 抓到多強多弱的訊號都不重要,只要您把它計算正確,分成三筆資料量就好, 後續計算有多複雜都不是重點。
硬體工程師只要正確做訊號抓取﹝硬體工程﹞ 軟體工程師負責將訊號做正確演算﹝將訊號換算成一般人理解的東西﹞ 我們應用者只要負責將正確影像檔做給不同設備去輸出或顯示或印刷。
就這樣!我只要懂理論,方程式計算是工程師的問題, 但是工程師要是只會方程式,不懂理論, 那就會做出不良產品,並且給消費者錯誤觀念的廣告, 變成一門偽科學或錯誤資訊。
|
網路會員
|
哈哈 那到S3.... 我先試囉 先說一下 手感很好 液晶營目更棒
|
網路會員
|
to chang1030....
快快快, 貼個幾張出來看看吧. 最好是能跟S2一起拍, 做個比較. :)
|
網路會員
|
還有一些...
"另外, Lab 的color space 我想懂的人不多, 歪桑 兄 可否解釋一下? 一般人大概只能了解字面上的定義吧. (L 表luminance, a, b 各表某一段色....) 我另外想問, HSB 跟HSL 為何在PS上無法顯示出正常的顏色? "
首先,PhotoShop我已經很久很久沒用了,遠在我開始研究色彩學之前,我的本行是影像壓縮,所以過去四年來的主要工作是MPEG-2 codec,H.263/MPEG-4 codec,最近則是開始進行H.264。這些standard都是假設你已經有了YCbCr的資料,輸出也是YCbCr的資料,所以不用考慮raw RGB -> sRGB RGB -> Rec. 470-2 YCbCr or Rec. 709 YCbCr(這兩種YCbCr又不相同)-> sRGB RGB -> LCM RGB 的個過程。但是真的接觸之後,才知道這中間有多少問題。
先不說 CIELAB,可知道HS*家族有幾個嗎?我見過HSB, HSI, HSL, HSV這四種,記得HS部分的定義是一樣的,但問題就在後面的這個 B, I, L, V,代表 Brightness, Intensity, Lightness 及 Value,基本上都是亮度,但因為對亮度/強度/明度/值 的定義不同,會造成許多使用上及轉換上的問題。我沒在PH上用過這些色空間,所以不知道如何不正確,但是如果對色空間不了解而誤用,結果也是會和期望的差很多的。(記得I是沒有gamma corrected的,而B和L的gamma curve不同)
要知道CIELAB(一般使用上是稱為Lab,正確的表記方式是L*a*b*),要從CIE 1931(XYZ及xyz)談起,可是要我打字出來,我一整天就不用工作了。一個pixel的Lab值可由這個pixel的XYZ值加上一個參考白的XYZ值轉換得來,L由Y經由gamma correction而來代表亮度,a b值則是經過色域修正的色彩值,三個值都是非線性的,主要的目的是Lab是比xyY更均勻的色空間,所以求出來的色差會更有意義,所以Lab只要是用來作色彩品質的計算,一般不會直接在Lab上進行運算,而是在線性的XYZ上進行,最後再轉到Lab去看色空間的特性,或是對一個pixel的Lab值進行調整。將兩個pixel的Lab值進行加減運算成新的pixel值,而期待出來的結果會是什麼,抱歉,這超過了我的專業能力。
|
網路會員
|
謝謝歪桑的解說, 不過有的地方我有看沒有懂(對不起我本行也不是學這個的, 我是學機械出身的). 想問幾個問題....
"一個pixel的Lab值可由這個pixel的XYZ值加上一個參考白的XYZ值轉換得來,L由Y經由gamma correction而來代表亮度,a b值則是經過色域修正的色彩值,三個值都是非線性的,主要的目的是Lab是比xyY更均勻的色空間,所以求出來的色差會更有意義"
1.一個pixel的XYZ 值是如何求得? 可以經由RGB 三個色板值求得嗎? 2.Lab值是由該pixel 的XYZ 值跟參考白的XYZ 值轉換, 請問, 這時的"參考白", 是指哪個"白"....我可不可以說它就是(R,G,B)=(255,255,255) ? 或是有別的定義? 3.這個pixel 的Lab 值既是經過轉換而來, 是不是有某個轉換矩陣? 請問一下, 如果有, 我該去哪找這個資料? (這些都請歪桑打字真的太過份了....) 4.如果, RGB空間跟Lab空間本來就存在有可以"互相轉換"的"公式"存在, 又為何Lab 色彩空間的定義會比較廣?
不好意思, 如果不好回答或是打字麻煩, 麻煩歪桑點我一下, 告訴我去哪看資料. 謝謝.
|