我的感覺是,雙攝涉及到後期合成的問題,因為兩個鏡頭的畫面是不同的,但這個合成是非常消耗資源的,估計不僅僅是ISP喫不消,手機電池也喫不消,拍視頻的手也喫不消~具體請看華為雙攝系列拍照的時候手機發熱厲害,電池電力滑坡下降,就知道雙攝合成的消耗,每秒鐘合成三十張或者六十張1080p的照片

首先,我得申明一下立場:在我看來,有生之年手機如果能做好視頻錄製的雙攝虛化——即便是需要導到pc裏再用軟體導出的那種,也將會成為廣大視頻愛好者甚至專業用戶的一大福音。

想像一下:先錄視頻,然後等到後期剪輯的時候再調整對焦點對焦速度和虛化程度……想想都爽爆了好嘛……

再加上手機出色的便攜性——旅遊/VLOG神器。

我給大家換個角度說說:

都說手機底小,其實我能說一大票攝像機也就不過1/2.3英寸的底嘛……當然這是由於有散熱、果凍效應等種種因素,所以攝像機用大底所需要花的成本是要比照相機要大不少的;況且早先由於視頻解析度普遍不高,攝像機也不必用更大的底來放更多的像素。(實際上畫幅達到或超過全畫幅的攝像機價格極其昂貴,現階段絕大多數專業領域也未必消費得起……)

所以實際上手機的視頻畫質還有不少潛力可挖:例如碼率。我反正是不信這是性能瓶頸,畢竟諾基亞早在2012年就已經做到每秒30幀的8k超採了(這個指標在消費級領域至今無人能及),然而捉急的視頻碼率拖了畫質後腿。

再比如說視頻的動態範圍,手機的編碼一直在這方面壓縮的很厲害。而蘋果的DCI-P3,和將來普及的hdr視頻錄製在我看來客觀上都是在為這個限制鬆綁。

當然這也表示了:在還有牙膏可擠的情況下手機廠商也沒那麼大的動力去搞雙攝視頻虛化……


瀉藥!不知道你說的不能拿來錄視頻是什麼意思,iPhone是可以用副攝像頭錄像的(光線足且2X變焦的情況下),其他的手機不知道,很久沒關注安卓那邊了!兩個攝像頭同時錄像?不實際吧?也沒卵用,iPhone為例,兩個攝像頭焦距不一樣,錄下來的畫面不能看的。照相也沒有同時用兩個攝像頭啊,焦距都不一樣,只是在不同場景用不同的攝像頭而已。

華為的黑白+彩色雙攝,用來錄視頻更不肯能了,也沒什麼必要

以上兩種方案都是不對稱雙攝,即便是對稱雙攝(即兩個攝像頭參數一模一樣),實現雙攝像頭錄像也沒必要啊,因為攝像頭位置不一樣,畫面是不重疊的,如果靠演算法提取重疊的部分,進行合成處理,會損失一部分畫面內容,防抖演算法還要裁掉一部分,畫面內容少的可憐,最後一放大,畫面還沒單攝4k清晰,沒必要吧?多年以前倒是有一個手機利用雙攝錄像和拍照,HTC EVO 3D,拍3d照片,錄3d視頻,只能720p,2d視頻1080p,你說那個清晰?
謝邀。我想還是因為性能不足以支撐實時雙鏡頭拍攝的影像處理計算吧。

不過倒是可以同時錄兩段視頻,每個鏡頭各一個,然後用軟體疊加拼接起來,也會是個不錯的選擇。


瀉藥。

題主的問題是看到了iPhone等手機的雙攝手機可以同過演算法實現背景虛化功能,那麼期望視頻同樣的演算法是吧。大家說了很多了,我補充一下細節。

換成我用視頻剪輯軟體的步驟:

方法1:首先把廣角端拍的視頻和長焦端的視頻都放在軌道內,然後虛化掉長焦端拍攝的部分,因為長焦端的虛化效果更好(或取消這一步)。接著開始廣角端放大,裁剪,拼合。

方法2:首先把廣角端拍的視頻和長焦端的視頻都放在軌道內,然後虛化掉廣角端拍攝的部分,因為使用廣角端端不需要裁剪拼合。

接下來,渲染導出來,選擇速度相對快的H265壓縮方式,喝杯咖啡,等待等待等待,漫長的時間過去了,導出保存。

如果以上步驟都交由手機那顆處理器完成,每次拍完視頻要等超級長的時間(假設),期間還要處理微信簡訊電話新聞彈出...

這樣的視頻錄製功能,你還要麼?

期待未來的手機可以辦到。


第一,手機的圖像處理能力不足,一般高端手機會加獨立ISP,但主要還是針對拍照的。比如美圖手機的美顏效果就是利用索喜的ISP實現的。

第二,手機攝像頭採用的是VCM(音圈馬達)來驅動鏡頭對焦,VCM目前的精度不夠,手機錄像移動對焦時,通常有10-15微米的跑焦區間範圍。來回對焦會糊焦,還會耗電減少手機使用壽命。

第三,雙攝組合有多種,RGB+RGB,MONO+RGB,長焦+短焦等等。雙攝錄像解決不了馬達同步伺服,無法合理調用攝像頭工作。有廠家做定焦的雙攝3D相機,定焦的就不用馬達同步,但拍攝焦距和清晰度就不行了。


推薦閱讀:
相關文章