「先拍照再對焦」並不是什麼新型「黑科技」,早在 2013 年,Nokia 就推出了一個名為「諾基亞再對焦」(2014 年更名為「Lumia 再對焦」的功能):

進入應用後,用戶需要做到的就只是按下快門鍵或者點擊屏幕拍照,隨後應用會拍攝出一張照片並且保存,隨後,用戶就可以將這張照片進行再對焦了。不過值得注意的是,再對焦只對有明顯前後景深的畫面有效,比如在拍攝微距或者靜物的時候有所效果。

2013.11.15 PC Home 測評文章,鏈接:https://article.pchome.net/content-1672600.html

如果你真的用過這個功能,就會發現它拍照片時要比平常久一些,虛化效果對明顯有前後景深的畫面有效。那是因為要收集不同焦段的像素信息(圖片本質上是排列好的像素),拍攝之後再選擇哪個焦段作為最清晰的焦段,實現「先拍照再對焦」。

1 年之後,Google Camera 推出了「Lens Blur」功能,同樣主打先拍照後對焦——不過拍攝過程中,需要讓相機按照指定方向移動。

為什麼?與「諾基亞再對焦」不同,「Lens Blur」的原理是在移動過程中,通過不同角度獲得的像素信息找到它們的深度(移動過程中鏡頭的移動距離對應到畫面的變化上,就能推算出鏡頭與對應像素點之間的距離),在三維空間中對照片主體進行還原,再執行虛化。

這之後 HTC、華為等手機廠商也搭載了這種功能,不過大概是輸出效果和使用感受上並沒有什麼飛躍的變化,「先拍照再對焦」這項功能一直沒能引起注意。

自 iPhone 7 Plus 開始相機中開始有了「人像功能」,能拍攝出以人物為主題、周圍虛化的效果不錯的照片。不過,你有沒有想過為什麼是 iPhone 7 Plus?

答案是「雙攝像頭」。單個鏡頭只能接收二維平面信息,無法獲取深度信息。雙攝像頭的位差使得拍出來的照片也會存在位差,不用像「Lens Blur」那樣藉助移動獲取深度,通過兩個攝像頭拍攝到的照片不同就可以計算主體的深度信息,對其外的圖像作出虛化。

如果說 iPhone XS 在「先拍照後對焦」這件事上做出了哪些改變,那就是現在依靠著 A12 的強大處理能力,判斷畫面中多個主體的能力上來了,不再由演算法默認判斷主體,將主動權就交給用戶。

如果你願意了解更多,不妨去了解一下 Lytro 光場相機——這才是「先拍照再對焦」的始祖、各廠執著不休實現此功能的&(萬惡)&根源。

以下是重點:

不管用什麼方法,想要在手機上實現「先拍照後對焦」,同時達到相機式的光學對焦效果,本質還是要(靠各種辦法)獲取畫面中物體(即像素點)的深度信息,再從軟體、演算法層面進行(更好)優化。

----這裡是漲知識的分界線----

如果覺得獲取深度信息這件事不好理解,不妨看看這支視頻,雖然是在講 SLAM,在通過視覺獲取深度上,無論手機還是自動駕駛、AR,本質上都是共通的。

KnowingAI知智:想入門自動駕駛?超火的 SLAM 技術了解一下!|知智一分鐘?

zhuanlan.zhihu.com圖標

以上~希望能夠解答疑問~


瀉藥

說明一下,本答案是根據Xs的硬體設施來猜測、推理蘋果實現的思路,沒法從代碼層面給出100% confidence的結論。

首先來看Xs的基本硬體設施,廣角大光圈鏡頭、長焦大光圈鏡頭,帶有神經引擎的A12處理器(此處為重點)。兩個鏡頭加上牛逼的處理器,Xs拍照時可以探測到聚焦物體前後的空間信息。(此能力也由AR測距得到了驗證。)即在iPhone Xs眼中,世界是三圍的,而不是僅投射在CMOS上的二維信息。

那麼iPhone Xs拍攝可調節景深的思路較接近光場相機,即前期大量、完整的收集環境信息,包括光線、焦距等,然後後期可做軟體模擬。當然iPhone還沒有光場相機,無法實後期任意對焦。但是對主體對焦並探測主體的縱深是可以的。(探測質量又是另外一回事了)

擁有充分的光線信息,擁有主體縱深,那麼理論上軟體在後期就可以模擬光圈調節所帶來的景深。

補充一下景深控制的相關因素:1、光圈大小;2、相機到主體的距離。如果想拍出背景虛化的照片還得考慮主體與環境背景之間的距離。從這幾個角度來思考問題,加上已知的條件,就可以推斷出蘋果的實現方式。推錯了別怪我(逃


我只有X(沒這個功能)

不知道XS這個功能怎麼樣

我只知道蘋果還有個新品沒發布

我反手只想升級個IOS12


沒看發布會,看起來好像就是htc m8上的那個二次對焦,可能高級一點?雙攝機型都可以做到吧,只需要在拍照同時多記錄一個景深信息就好了,原來蘋果現在才有這個功能啊。(?д?╬)


謝邀

沒拿到機器不敢下定論,以下只是揣測。

首先可以明確一點的是,手機攝像的鏡頭拍出來的照片如果不加處理應該是全景深照片(不明白的同學可以百度搜索「超焦距」這個概念),也就是拍出來的圖片裡面的東西應該全都是清晰的。手機的攝像頭是沒有對焦環,沒有可以調節的光圈葉片啊,所以它的光圈是恆定的,合焦的位置也是不變的,怎麼調節景深呢?因此我們手機拍出來的大光圈虛化的效果實際上不是鏡頭產生的虛化效果,而是軟體生成的。它可以通過手機上的那個對焦的框框識別你想放在焦內的物體,然後把其他用軟體實現虛化效果。換句話說,手機上那個對焦的框框是假的,實際上所有智能手機都應該可以實現這樣的功能。

但是原來不這樣做是因為這裡面依賴大量的運算,比如你選好了一個對焦的位置,它其他地方就得給你自動虛化掉。這就依賴相機的處理能力。你如果需要實時自由的改變對焦位置,是不是手機軟體也要跟著你改變的位置而改變虛化的效果啊?

所以我覺得主要還是這次是手機的內部硬體升級之後有比較充裕的性能來實時實現這種功能。當然還有軟體的研發,但是這個功能也是為了手機能增加賣點,但我個人覺得也不是什麼特別酷炫的功能啦


推薦閱讀:
相关文章