「先拍照再对焦」并不是什么新型「黑科技」,早在 2013 年,Nokia 就推出了一个名为「诺基亚再对焦」(2014 年更名为「Lumia 再对焦」的功能):

进入应用后,用户需要做到的就只是按下快门键或者点击屏幕拍照,随后应用会拍摄出一张照片并且保存,随后,用户就可以将这张照片进行再对焦了。不过值得注意的是,再对焦只对有明显前后景深的画面有效,比如在拍摄微距或者静物的时候有所效果。

2013.11.15 PC Home 测评文章,链接:https://article.pchome.net/content-1672600.html

如果你真的用过这个功能,就会发现它拍照片时要比平常久一些,虚化效果对明显有前后景深的画面有效。那是因为要收集不同焦段的像素信息(图片本质上是排列好的像素),拍摄之后再选择哪个焦段作为最清晰的焦段,实现「先拍照再对焦」。

1 年之后,Google Camera 推出了「Lens Blur」功能,同样主打先拍照后对焦——不过拍摄过程中,需要让相机按照指定方向移动。

为什么?与「诺基亚再对焦」不同,「Lens Blur」的原理是在移动过程中,通过不同角度获得的像素信息找到它们的深度(移动过程中镜头的移动距离对应到画面的变化上,就能推算出镜头与对应像素点之间的距离),在三维空间中对照片主体进行还原,再执行虚化。

这之后 HTC、华为等手机厂商也搭载了这种功能,不过大概是输出效果和使用感受上并没有什么飞跃的变化,「先拍照再对焦」这项功能一直没能引起注意。

自 iPhone 7 Plus 开始相机中开始有了「人像功能」,能拍摄出以人物为主题、周围虚化的效果不错的照片。不过,你有没有想过为什么是 iPhone 7 Plus?

答案是「双摄像头」。单个镜头只能接收二维平面信息,无法获取深度信息。双摄像头的位差使得拍出来的照片也会存在位差,不用像「Lens Blur」那样借助移动获取深度,通过两个摄像头拍摄到的照片不同就可以计算主体的深度信息,对其外的图像作出虚化。

如果说 iPhone XS 在「先拍照后对焦」这件事上做出了哪些改变,那就是现在依靠著 A12 的强大处理能力,判断画面中多个主体的能力上来了,不再由演算法默认判断主体,将主动权就交给用户。

如果你愿意了解更多,不妨去了解一下 Lytro 光场相机——这才是「先拍照再对焦」的始祖、各厂执著不休实现此功能的&(万恶)&根源。

以下是重点:

不管用什么方法,想要在手机上实现「先拍照后对焦」,同时达到相机式的光学对焦效果,本质还是要(靠各种办法)获取画面中物体(即像素点)的深度信息,再从软体、演算法层面进行(更好)优化。

----这里是涨知识的分界线----

如果觉得获取深度信息这件事不好理解,不妨看看这支视频,虽然是在讲 SLAM,在通过视觉获取深度上,无论手机还是自动驾驶、AR,本质上都是共通的。

KnowingAI知智:想入门自动驾驶?超火的 SLAM 技术了解一下!|知智一分钟?

zhuanlan.zhihu.com图标

以上~希望能够解答疑问~


泻药

说明一下,本答案是根据Xs的硬体设施来猜测、推理苹果实现的思路,没法从代码层面给出100% confidence的结论。

首先来看Xs的基本硬体设施,广角大光圈镜头、长焦大光圈镜头,带有神经引擎的A12处理器(此处为重点)。两个镜头加上牛逼的处理器,Xs拍照时可以探测到聚焦物体前后的空间信息。(此能力也由AR测距得到了验证。)即在iPhone Xs眼中,世界是三围的,而不是仅投射在CMOS上的二维信息。

那么iPhone Xs拍摄可调节景深的思路较接近光场相机,即前期大量、完整的收集环境信息,包括光线、焦距等,然后后期可做软体模拟。当然iPhone还没有光场相机,无法实后期任意对焦。但是对主体对焦并探测主体的纵深是可以的。(探测质量又是另外一回事了)

拥有充分的光线信息,拥有主体纵深,那么理论上软体在后期就可以模拟光圈调节所带来的景深。

补充一下景深控制的相关因素:1、光圈大小;2、相机到主体的距离。如果想拍出背景虚化的照片还得考虑主体与环境背景之间的距离。从这几个角度来思考问题,加上已知的条件,就可以推断出苹果的实现方式。推错了别怪我(逃


我只有X(没这个功能)

不知道XS这个功能怎么样

我只知道苹果还有个新品没发布

我反手只想升级个IOS12


没看发布会,看起来好像就是htc m8上的那个二次对焦,可能高级一点?双摄机型都可以做到吧,只需要在拍照同时多记录一个景深信息就好了,原来苹果现在才有这个功能啊。(?д?╬)


谢邀

没拿到机器不敢下定论,以下只是揣测。

首先可以明确一点的是,手机摄像的镜头拍出来的照片如果不加处理应该是全景深照片(不明白的同学可以百度搜索「超焦距」这个概念),也就是拍出来的图片里面的东西应该全都是清晰的。手机的摄像头是没有对焦环,没有可以调节的光圈叶片啊,所以它的光圈是恒定的,合焦的位置也是不变的,怎么调节景深呢?因此我们手机拍出来的大光圈虚化的效果实际上不是镜头产生的虚化效果,而是软体生成的。它可以通过手机上的那个对焦的框框识别你想放在焦内的物体,然后把其他用软体实现虚化效果。换句话说,手机上那个对焦的框框是假的,实际上所有智能手机都应该可以实现这样的功能。

但是原来不这样做是因为这里面依赖大量的运算,比如你选好了一个对焦的位置,它其他地方就得给你自动虚化掉。这就依赖相机的处理能力。你如果需要实时自由的改变对焦位置,是不是手机软体也要跟著你改变的位置而改变虚化的效果啊?

所以我觉得主要还是这次是手机的内部硬体升级之后有比较充裕的性能来实时实现这种功能。当然还有软体的研发,但是这个功能也是为了手机能增加卖点,但我个人觉得也不是什么特别酷炫的功能啦


推荐阅读:
相关文章