偶然看到有人讨论量子效率QE, 我就随便写写我知道的

先放结论, 技术补足的情况下, cmos和ccd没有太大区别, 都是si

以前也回过一个关于qe的答案, cmos能捕获到百分之多少光线?25%?, 里面我用matlab画的图就是不同epi厚度对于qe的影响, 不考虑任何非理想因素的理想状态

  • CMOS在一般情况下比CCD长波效率低, 主要是因为受限于电压范围, ccd甭管它是稍厚的oxide还是deep depletion, 总之结果就是CCD工作电压高了, 它的PN结电场向下延伸的范围更深一点, 所以消费级的, CCD长波QE会好点

下面这个图是cmos的photodiode, 我5/6年前仿的(当然和实际有差别, 这是最简单的结构), 不特殊设计的话, 这个电场边界也就2um这个范围. 当然这个边界之下还存在弱电场, 对于QE也是有贡献的.

  • 手机vertical PD可能会深一点点, 因为pd doping设计取向不一样, 比如下面这个, sony某背照型号, 一般这种类型的背照, 整个si厚度就是2~4um左右, 长波QE自然被限制了

取自论文, Reverse Engineering the Raspberry Pi Camera V2: A study of Pixel Non-Uniformity using a Scanning Electron Microscope, 2019

  • 但是cmos很多方法可以提升长波QE, 最简单的就是加厚(背照加厚会牺牲短波的响应性能(crosstalk之类的), 这很好理解, 因为短波在很浅的深度吸收, 但是背照pd强电场范围跑到反面去了), 下图取自e2V, 里面3条线是不同的厚度

当然加厚的同时, 可以给底部加偏置电压之类的

图取自, Teledyne e2v sensors for adaptive optics wavefront sensing on ELTs: high rate, large format, and low noise, 2017

  • 还有非常妙的技术来提升长波QE, 比如black silicon这种在表面做文章的, 也有类似的锥形体表面, 下面是个示意图, 是sony的, 成果发在了nature上, IR sensitivity enhancement of CMOS Image Sensor with diffractive light trapping pixels, 2017, 在表面结构做文章, 等效增加光在si里的路径, 提升长波QE

当然这个技术国内公司也有用了类似的, 有一些SEM图, 不过考虑一下还是不贴了

先写这些吧

  • 补张图, si材料对于光的吸收系数/深度和波长的关系, 顶天了, 可吸收的光子hυ, 不能小于si禁带宽度

技术补足的情况下, cmos和ccd没有太大区别, 都是si

图取自, &, 2007


这个就是图像感测器的发展问题了。

上个世纪60年代,cmos和ccd差不多同时出现。但是商业化的只是ccd而不是cmos。主要cmos的杂讯太高而被舍弃。然后只到90年代,见这篇论文。

1993-Fossum, Active Pixel Sensors: Are CCDs Dinosaurs?

cmos中提出了新的结构,在pixel中加入晶体管,这些晶体管提高像素输出的驱动能力,从而也可以拉低杂讯。93这篇论文就提到了ccd的弱点,1,抗辐射能力不够,因为ccd读出的时候是电荷包转移,路径长,然后被辐照影响,2,解析度,依然是由于ccd是电荷包转移,转移的时候是有一定损失得,比如效率是0.999,转移1000次之后损失了80%以上,如果效率是0.9999,转移1000次损失20%的信号,CCD是做在Si里面,Si里面要是有键断掉,那也会导致电子的损失;3,读出速率不够快。

其实上面说了这些点,cmos能商业化成功,最最主要的还是cost,贴一张图[1]. 虽然有点老,但是信息足够了,APS就表示cmos图像感测器。

CCD虽然式微,但是对cmos在一些应用上依然有著优势,1,TDI(时间延迟积分),CCD由于在电荷域操作,做到无杂讯的累加[2],不过目前在基于CMOS的TDI也有研究;2,scientific camera,这种camera里面用的EMCCD,目的在于低光照下的探测[3],号称可以探测单光子,常常用于生物荧光检测之中,因为荧光是微弱的光。不过目前CMOS方面研究出了量子图像感测器[4],也可以探测到单光子,EMCCD的优势也会日渐衰落,被CMOS取代。

如有错误或疑问请指出,谢谢。

Ref:

[1] http://ericfossum.com/Presentations/Part%203%20-Technology.pdf

[2] TDI CCDs are still the sensors of choice for demanding applications

[3] Electron Multiplying Charge-Coupled Devices (EMCCDs)

[4] http://www.mems.me/mems/optical_mems_201802/6027.html


1、可见光下,两者性能差不太多

2、CMOS能大批量买得到,大批量制造成本低于CCD

3、CMOS适应性广(High Gain、Long Exposure、Video)

那么,关注主要几个厂家的单反,Kodak、Canon、Nikon、Sony/Minolta、Olympus

Kodak的早期产品是CCD、比如DCS 760,到了14N则为CMOS

Canon只有第一代1D是CCD,其后基本上都使用CMOS,算是较早投入研究的大厂

Nikon则是两者都有,D1X、D80这种用CCD、D3X、D90这种用CMOS,当然还有自家设计的LBCAST

Sony/Minolta在A390之后,由CCD全面转入CMOS,现在能见到的Sony CCD,一般是工业用途

Olympus那些Kodak CCD的机器,E-1、E-300一类,只存在历史记录了吧

具体讨论的话:

可见光情况下,CCD能做到的,CMOS大部分能够做到。

可见光之外的话,CCD还是能感知的,比CMOS要广,因此一般相机需要更厚的IR的来满足IR Cut。例如Leica M8,高反射率的黑色会发紫,由于0.5mm的UVIR效率不佳引起。

由于这个特性,很多应用选择天文专属CCD,可冷冻。对于一般玩家,选择Nikon D810A即可。

因为行业上持续的投资,CMOS一直在改进,其特点:低耗电、高感光、背照式感测器、堆栈式感测器、高读取速率

当然,还有CMOS大批量制造的价格,少于同等的CCD

一般说来,单反是一个干活的机器,最好的是能够直接拿到可用的图,大部分厂家是选择了:1、禁止用户触碰内部Bayer RAW转化,2、禁止关闭Black Reference获取,3、默认高反差的Gamma和较为鲜艳的增益表。这点对于CCD机器的高级玩法,不太友好。

至于更容易的日常感知,现在的相机,不只是要拍照,还要拍视频

拍视频,全局快门非常爽快,但CCD比较慢,无法拍摄高帧速率的视频,一般行业里的CCD,720P达到30FPS,已经算是很快了。而CMOS的话,不说别的,当代手机都可以720P下的960FPS了。即便找到最早的高速摄影机器Casio EX-F1(2008年),也可以达到1200fps呢(336x96 px)。

CCD给够电,能够达到更好的画面感知,但这个电压通常有一点高,以至于大部分CCD机器都有电老虎的称呼。

以上


当年在ISO大战中CMOS系的佳能打败了CCD系的尼康,宾得,索尼和奥林巴斯,后来除了奥林巴斯大家都用CMOS了。

奥林巴斯则是用PMOS作为感测器了,可能是当时松下搞出来的CMOS还不如PMOS,一直到索尼入股,才用上CMOS

这个转换大概是06-08年。

当年CCD感测器的成像风格,其实是比CMOS好的,主要是CMOS太过线性化。CCD出的片一般饱和度比较好。

CCD也有一些比较明显的缺点,比如耗电(因为是流控元件),发热(也是高ISO不行的原因之一),还有速度慢(CCD是全帧读取的,读取期间没法曝光,奥林巴斯在E330因为要实现LiveView所以向松下定制了叫做LiveMOS的PMOS感测器)


ccd和数字cmos工艺不兼容,必须在片外进行数模转换,前端杂讯控制能力差,暗部纯净度差,弱光能力差

功耗极高,ccd做到135幅面几乎无法进行长时间的实时取景,否则过热烧毁,更不要说视频拍摄

刷新率低,影响了实时取景和视频的使用


推荐阅读:
相关文章