偶然看到有人討論量子效率QE, 我就隨便寫寫我知道的

先放結論, 技術補足的情況下, cmos和ccd沒有太大區別, 都是si

以前也回過一個關於qe的答案, cmos能捕獲到百分之多少光線?25%?, 裡面我用matlab畫的圖就是不同epi厚度對於qe的影響, 不考慮任何非理想因素的理想狀態

  • CMOS在一般情況下比CCD長波效率低, 主要是因為受限於電壓範圍, ccd甭管它是稍厚的oxide還是deep depletion, 總之結果就是CCD工作電壓高了, 它的PN結電場向下延伸的範圍更深一點, 所以消費級的, CCD長波QE會好點

下面這個圖是cmos的photodiode, 我5/6年前仿的(當然和實際有差別, 這是最簡單的結構), 不特殊設計的話, 這個電場邊界也就2um這個範圍. 當然這個邊界之下還存在弱電場, 對於QE也是有貢獻的.

  • 手機vertical PD可能會深一點點, 因為pd doping設計取向不一樣, 比如下面這個, sony某背照型號, 一般這種類型的背照, 整個si厚度就是2~4um左右, 長波QE自然被限制了

取自論文, Reverse Engineering the Raspberry Pi Camera V2: A study of Pixel Non-Uniformity using a Scanning Electron Microscope, 2019

  • 但是cmos很多方法可以提升長波QE, 最簡單的就是加厚(背照加厚會犧牲短波的響應性能(crosstalk之類的), 這很好理解, 因為短波在很淺的深度吸收, 但是背照pd強電場範圍跑到反面去了), 下圖取自e2V, 裡面3條線是不同的厚度

當然加厚的同時, 可以給底部加偏置電壓之類的

圖取自, Teledyne e2v sensors for adaptive optics wavefront sensing on ELTs: high rate, large format, and low noise, 2017

  • 還有非常妙的技術來提升長波QE, 比如black silicon這種在表面做文章的, 也有類似的錐形體表面, 下面是個示意圖, 是sony的, 成果發在了nature上, IR sensitivity enhancement of CMOS Image Sensor with diffractive light trapping pixels, 2017, 在表面結構做文章, 等效增加光在si裏的路徑, 提升長波QE

當然這個技術國內公司也有用了類似的, 有一些SEM圖, 不過考慮一下還是不貼了

先寫這些吧

  • 補張圖, si材料對於光的吸收係數/深度和波長的關係, 頂天了, 可吸收的光子hυ, 不能小於si禁帶寬度

技術補足的情況下, cmos和ccd沒有太大區別, 都是si

圖取自, &, 2007


這個就是圖像感測器的發展問題了。

上個世紀60年代,cmos和ccd差不多同時出現。但是商業化的只是ccd而不是cmos。主要cmos的雜訊太高而被捨棄。然後只到90年代,見這篇論文。

1993-Fossum, Active Pixel Sensors: Are CCDs Dinosaurs?

cmos中提出了新的結構,在pixel中加入晶體管,這些晶體管提高像素輸出的驅動能力,從而也可以拉低雜訊。93這篇論文就提到了ccd的弱點,1,抗輻射能力不夠,因為ccd讀出的時候是電荷包轉移,路徑長,然後被輻照影響,2,解析度,依然是由於ccd是電荷包轉移,轉移的時候是有一定損失得,比如效率是0.999,轉移1000次之後損失了80%以上,如果效率是0.9999,轉移1000次損失20%的信號,CCD是做在Si裡面,Si裡面要是有鍵斷掉,那也會導致電子的損失;3,讀出速率不夠快。

其實上面說了這些點,cmos能商業化成功,最最主要的還是cost,貼一張圖[1]. 雖然有點老,但是信息足夠了,APS就表示cmos圖像感測器。

CCD雖然式微,但是對cmos在一些應用上依然有著優勢,1,TDI(時間延遲積分),CCD由於在電荷域操作,做到無雜訊的累加[2],不過目前在基於CMOS的TDI也有研究;2,scientific camera,這種camera裡面用的EMCCD,目的在於低光照下的探測[3],號稱可以探測單光子,常常用於生物熒光檢測之中,因為熒光是微弱的光。不過目前CMOS方面研究出了量子圖像感測器[4],也可以探測到單光子,EMCCD的優勢也會日漸衰落,被CMOS取代。

如有錯誤或疑問請指出,謝謝。

Ref:

[1] http://ericfossum.com/Presentations/Part%203%20-Technology.pdf

[2] TDI CCDs are still the sensors of choice for demanding applications

[3] Electron Multiplying Charge-Coupled Devices (EMCCDs)

[4] http://www.mems.me/mems/optical_mems_201802/6027.html


1、可見光下,兩者性能差不太多

2、CMOS能大批量買得到,大批量製造成本低於CCD

3、CMOS適應性廣(High Gain、Long Exposure、Video)

那麼,關注主要幾個廠家的單反,Kodak、Canon、Nikon、Sony/Minolta、Olympus

Kodak的早期產品是CCD、比如DCS 760,到了14N則為CMOS

Canon只有第一代1D是CCD,其後基本上都使用CMOS,算是較早投入研究的大廠

Nikon則是兩者都有,D1X、D80這種用CCD、D3X、D90這種用CMOS,當然還有自家設計的LBCAST

Sony/Minolta在A390之後,由CCD全面轉入CMOS,現在能見到的Sony CCD,一般是工業用途

Olympus那些Kodak CCD的機器,E-1、E-300一類,只存在歷史記錄了吧

具體討論的話:

可見光情況下,CCD能做到的,CMOS大部分能夠做到。

可見光之外的話,CCD還是能感知的,比CMOS要廣,因此一般相機需要更厚的IR的來滿足IR Cut。例如Leica M8,高反射率的黑色會發紫,由於0.5mm的UVIR效率不佳引起。

由於這個特性,很多應用選擇天文專屬CCD,可冷凍。對於一般玩家,選擇Nikon D810A即可。

因為行業上持續的投資,CMOS一直在改進,其特點:低耗電、高感光、背照式感測器、堆棧式感測器、高讀取速率

當然,還有CMOS大批量製造的價格,少於同等的CCD

一般說來,單反是一個幹活的機器,最好的是能夠直接拿到可用的圖,大部分廠家是選擇了:1、禁止用戶觸碰內部Bayer RAW轉化,2、禁止關閉Black Reference獲取,3、默認高反差的Gamma和較為鮮艷的增益表。這點對於CCD機器的高級玩法,不太友好。

至於更容易的日常感知,現在的相機,不只是要拍照,還要拍視頻

拍視頻,全局快門非常爽快,但CCD比較慢,無法拍攝高幀速率的視頻,一般行業裏的CCD,720P達到30FPS,已經算是很快了。而CMOS的話,不說別的,當代手機都可以720P下的960FPS了。即便找到最早的高速攝影機器Casio EX-F1(2008年),也可以達到1200fps呢(336x96 px)。

CCD給夠電,能夠達到更好的畫面感知,但這個電壓通常有一點高,以至於大部分CCD機器都有電老虎的稱呼。

以上


當年在ISO大戰中CMOS系的佳能打敗了CCD系的尼康,賓得,索尼和奧林巴斯,後來除了奧林巴斯大家都用CMOS了。

奧林巴斯則是用PMOS作為感測器了,可能是當時松下搞出來的CMOS還不如PMOS,一直到索尼入股,才用上CMOS

這個轉換大概是06-08年。

當年CCD感測器的成像風格,其實是比CMOS好的,主要是CMOS太過線性化。CCD出的片一般飽和度比較好。

CCD也有一些比較明顯的缺點,比如耗電(因為是流控元件),發熱(也是高ISO不行的原因之一),還有速度慢(CCD是全幀讀取的,讀取期間沒法曝光,奧林巴斯在E330因為要實現LiveView所以向松下定製了叫做LiveMOS的PMOS感測器)


ccd和數字cmos工藝不兼容,必須在片外進行數模轉換,前端雜訊控制能力差,暗部純凈度差,弱光能力差

功耗極高,ccd做到135幅面幾乎無法進行長時間的實時取景,否則過熱燒毀,更不要說視頻拍攝

刷新率低,影響了實時取景和視頻的使用


推薦閱讀:
相關文章