一直很好奇一個問題,現在的手機相機都有兩個以上的攝像頭,為什麼通過測距得到的虛化效果反而還不如一個鏡頭的相機?

我一直認為的是,我們人眼之所以能看到物體的立體感是因為我們有雙眼。假設兩個物體一前一後擺在面前,遮住一隻眼的話我們很難判別物體之間的距離關係。就比如3D電影之所以看起來有立體感,是因為拍攝時就用了雙鏡頭的3D攝像機。

然而我一直不明白,相機雖然只有一個鏡頭,拍攝照片時卻能清晰地分辨主體和背景,尤其是比如人像或者微距攝影時,哪怕是頭髮絲一樣大小的物體,主體的邊界都可以做到非常清晰明顯,它是如何快速區分哪部分是主體那部分是背景的?而現在的手機用兩個攝像頭來測距,是通過計算來達到相機的虛化效果,卻總是在主體邊緣出現模糊,這是為什麼?

純外行來請教,希望用淺顯一點的方式來解釋。百度得到的大多都是有一定攝影基礎才能明白的技術性說明,也嘗試過了解攝影基礎知識,卻發現要理解的概念非常多,除了如光圈、焦距、焦段之類的攝影常識外,還有如像距、物距、焦點、焦平面之類的光學知識,實在難以理解,望賜教!


這個問題說起來比較複雜,我根據個人理解簡單一分析,如果有不恰當的地方還請大佬指點。

首先先說景深這個問題

先說說影響景深的要素:光圈、鏡頭、及拍攝物的距離

1、光圈越大(光圈值f越小)景深越淺,光圈越小(光圈值f越大)景深越深。

2、鏡頭焦距越長景深越淺、反之景深越深。

3、主體越近,景深越淺,主體越遠,景深越深。

焦點平面就是相機感光元件的位置,每台相機都不太一樣。相機頂部有個圓圈加一條杠那個就是這台相機焦點平面的位置

現在來說手機為什麼比不上相機的景深效果,其實跟本身這個畫幅關係不大頂多我們可以說因為cmos小了相同焦段光圈下虛化面積就看不到了,自然覺得景深「不夠淺」了,但是這僅僅就是感覺上面。

但是最重要還是要說「等效焦距」與「等效光圈」。

因為現在大部分都是135系統,就是所謂全幅作為標準,我也這個為例來說。

現在很多廠商吹捧說 我的鏡頭光圈超大 焦距超廣等等 或者我三攝 我三四攝,但是他並沒有告訴你實際等效焦距和光圈是多少,

我舉一個例子 圖片來自攝影師Tony Northrup的測試

同樣焦段下,全畫幅 aps-c m4/3 受到元件大小問題 不同的效果因為存在焦距換算的問題

那麼這就說明了,如果手機想要達到相機鏡頭的效果,那麼他要根據現在的畫幅尺寸進行換算得出來才是真實的焦段。

4/3畫幅需要在基於 全畫幅2X換算上才能達到全畫幅的虛化效果

所有說 手機你覺得他 景深效果什麼不如相機,其實很多是受到了廠商參數,文字遊戲的誤導,總結來說視角取決於片幅大小,而淺景深效果取決於鏡頭實體焦(相同光圈值情況下),如果你把手機進行等效換算後,你就會發現相機這麼設置拍出來跟手機景深效果大差不差,當然你要拋開本身手機cmos的像素等等問題。

我做一個演算法公式 一台手機採用 1/.233英寸的對角線約為12.7mm 24mm焦段 f2.8.的光圈值

全畫幅相機cmos對角線約為43mm

43÷12.7≈3.39 那麼他與相機換算係數至少是3 也就是說 他的焦段作用在相機上效果就成了 72mm焦段 F8左右了。


景深三要素:光圈,焦距,物距

手機鏡頭的光圈其實都不算小,旗艦機基本都在f1.7-2.2,但是手機的coms非常小,即使是華為mate40,小米10,也只有1/1.28-1/1.3英寸,它們的主攝大概是等效24-28㎜,所以實際光學焦距只有幾個毫米,景深自然而然就大,也就是所謂的虛化差,這就是短焦距的結果,即使是全畫幅相機用8㎜的超廣角,也基本沒啥景深。至於第三條物距,你用手機拍微距的時候,即使不加演算法,也有不錯的虛化。


沒記錯的話是鏡頭短鏡頭到感光元件短


在知乎搜索一下景深。說的蠻清楚的。

解釋一下為什麼感測器越小,景深越大,你可以把全幅感測器作為基準,全幅拍的照片中心摳下手機感測器那麼一塊,是不是特別清晰,景深特別大呢。


首先你提到的鏡頭虛化和3D電影的雙鏡頭是兩回事。

因為3D電影,也是有全景深,和大光圈帶來的虛化效果的。所以要把2D和3D放在一起討論,全景深和淺景深放在一起討論。

然後相機鏡頭的虛化效果是物理帶來的,就是你提問最後說的一系列因素導致的。

手機的虛化有一部分是物理的,比如拍攝很近的物體,遠處的背景也很虛,這種物理效果跟相機鏡頭適用的因素相同。

手機的虛化還有一部分是演算法的,簡單點說就是通過各種辦法識別主體,摳像、模糊背景,演算法始終有好有壞有失誤,沒有物理來的直接,沒有物理來的漸變過渡。

但是演算法可以讓本沒有虛化的畫面產生空間感。(其實我們通過PS也可以做到讓全景深的圖變成有虛實的圖像,只不過手機做了這個工作,又快又好)

所以解答你的問題

1.為什麼達不到相機的景深效果?

這是物理因素導致,手機因為鏡頭光學結構體積受限,(你可以看一下光圈大小、感測器尺寸影響景深的光路圖就明白了),你也可以簡單的理解為,相同焦段下光圈越大虛化越明顯,感測器越大虛化也會產生改變。主要還是手機的鏡頭體積受限,它不可能達到相機鏡頭物理帶來的效果,所以演算法虛化算是一種模擬相機效果,並沒有因為多個攝像頭而超越相機。

2.相機是如何快速區分哪部分是主體那部分是背景的?

相機並沒有區分,只是單純的接收光線帶來的物理效果,根據使用者的調整,而改變焦平面。(相機也會識別主體但主要是進行對焦追焦 又是另一回事了)

3.通過計算來達到相機的虛化效果,卻總是在主體邊緣出現模糊?

如果你用過Ps摳圖就會發現,摳圖是一件可以很智能,有時又只能手動的工作。因為原始畫面的反差小、對比小、顏色接近、沒有虛實變化等等因素,導致人工摳圖時都會識別不出邊緣,電腦又怎麼知道那是哪呢?一旦識別失誤,就會導致有些主體也被進行了模糊處理,顯得很不自然。

4.你想理解透徹,只能去一個因素一個因素去學習了,光圈、焦段、距離、感測器大小等等每一個影響景深的因素,都有單獨的光路圖去解釋,也沒法淺顯的說。

其實相機想擁有演算法虛化也是可以的,只是幾乎所有相機廠家都不做,但並不是不能實現。依我看來,在相機原有的景深能力的基礎上添加演算法,更容易通過虛實來識別主體並放大效果。比如2.8的效果模擬成1.8這樣。

希望能解答你的問題。


如果你只是問為什麼單個鏡頭的單反虛化效果好過多鏡頭的手機,那麼很簡單,因為單反虛化靠的是光學的物理現象,而手機虛化更多靠的是演算法識別物體邊界。

而對於光學鏡頭做到淺景深虛化來講,大底和長焦才是最重要的因素,這和人雙眼定位的原理來講本身就不太相同,實際上人眼實際觀看到的圖像也基本不可能有很多人像鏡頭拍出來的那麼淺的景深。

多鏡頭從理論上來講雖然能像雙眼一樣獲得更多的光學信息,但從實際應用來說顯然手機對這些信息處理還不到位,對於物體邊緣的識別還不夠精細,體現出來就是手機演算法虛化在物體邊緣有瑕疵。


推薦閱讀:
相关文章