手機出的raw寬容度高嗎


有區別的。

如果你想要一個短平快的答案,請直接跳到「位深」部分。

導讀

  1. 什麼是 RAW?
  2. RAW 裡面有什麼?
  3. 位深
  4. RAW 真的是未經處理的嗎?
  5. 計算 RAW
  6. QA

1. 什麼是 RAW?

RAW 這個詞,有「未經處理」的含義。

讓我們從一個比方開始吧:現在你手頭有一塊生肉(Raw meat),你想要把它做成肉排,你可以有很多種做法:不同的熟成程度,不同的熟度,不同的調味乃至不同的配菜。同樣一塊肉,一個新手廚師可能處理得並不那麼令人滿意,但是一個優秀的大廚則可以玩出各種花樣。但是也有很多人覺得學做飯很麻煩,於是也有食品廠根據大多數人的口味做了一款冷凍肉排,回頭用微波爐熱一熱就能吃,雖然說也稱不上多好吃,但是充饑大多是沒問題的;但這塊肉排因為預處理已經丟失了一部分風味,後期你就沒辦法再大幅度改變調味咯。

這個比方同樣是適用於照片的處理領域的,一張 RAW 格式的圖片,就像那塊生肉一樣,包含了足夠的信息,給予你後期的很多可能。而 JPEG,則是像那塊冷凍肉排一樣,導出相機就可以發朋友圈,但如果想要在那個基礎上再後期,那基本結果不會太好。

2. RAW 裡面包括了什麼?

以上就是 RAW 裡面的典型內容,來自鏡頭的光線被 CMOS 捕捉並轉變為電信號,而這些記錄了每個像素明暗信息的數據就是 RAW 圖片的核心內容,此外還會記錄和拍攝時相關的設定信息。

單反/無反上的 RAW 大多數是廠家私有格式,而手機上的 RAW 一般是通用、公開的 DNG 格式,這應該是它們最顯而易見的區別了,看文件名後綴就能看出來。

3. 位深

單反/無反相機上的 RAW 和手機上的 RAW,最大的區別在於描述明暗數據的位深不同。

10bit = 2^10 = 1024

12bit = 2^12 = 4096

14bit = 2^14 = 16384

手機 CMOS 受制於成本和功耗,一般使用的是 10bit 的輸出模式,而相機則可以輸出 12/14bit,部分相機可以輸出 16bit。這意味著相機 RAW 能描述更細膩的影調和顏色過渡,後期空間也更大。

此外弱光下由於手機 CMOS 面積太小,因此吐出來的 RAW 信噪比會非常低,畫質會非常差。

4. RAW 真的是未經處理的嗎?

其實並不完全是這樣,現在很多 RAW 文件都是 ideal RAW/Processed RAW 的概念,即這個 RAW 文件已經經過了部分處理(一般由信號處理器 ISP 做),比如黑場矯正、壞點去除、暗角矯正等。

因此在手機上有各種經過不同程度處理的、抑或是圖像管線里處於不同階段的 RAW 文件,不同廠商的實現也不太一樣,比如 Qualcomm 就有一個 Ideal RAW 的概念,MTK 則有一個叫 Processed RAW 的概念。

5. 計算 RAW

在手機上,Google 做了一個叫做 HDR+ 的演算法,而這個模式下吐出來的 RAW 並不是相機感測器的數據。

它是許多張 RAW 進行堆疊以後輸出的,因此能顯著改善手機 RAW 在弱光下的表現,此外它也把 10bit 的數據在堆棧中處理到了 14bit。

當然這個演算法遠不止堆棧,關於這個的詳細介紹,可以看我為少數派撰寫的文章:

十年磨一劍:從 FCam 到 Pixel 4 看計算攝影的發展 - 少數派?

sspai.com圖標

類似的,諾基亞 9 PureView 也能多幀堆棧的技術吐 14bit 的 RAW。


更新:QA

評論區提出了不少有趣的問題,在這裡逐步做個回答。

關於相機 ISP 性能的問題

由於手機圈宣傳口徑的影響,大家被引導進了一個怪圈——ISP(圖像信號處理器)到底是用來幹什麼的?現在說得好像 ISP 就是用來搞堆棧、搞風格化(XX 色)、搞超級夜景這類東西。

但其實 ISP 的本職工作是什麼呢?

Qualcomm ISP 介紹

別的不說,就說 3A(AE/AF/AWB,自動曝光、自動對焦、自動白平衡),在手機上做好的到底有多少呢?

手機在這方面還是不夠強,就手機 f/8 往上的等效光圈那個景深,現在複雜環境下還經常對不上焦,追蹤物體總是跑飛,白平衡跑飛那也是日常,這都說明手機的 ISP 性能其實不強。

手機里那一小塊 ISP,處理能力是絕對沒有相機里那些 FPGA 和 ASIC 強的。

相機里弱的是跑應用的 CPU,也就是評論區里說到的索尼 a7 初代/二代機里 Cortex A5/A7 那個東西。

那為什麼相機廠商在改進直出這方面並不積極呢?這還是要回到相機和手機在攝影流程中所扮演的角色來看,手機的發展方向是讓攝影更輕鬆、更簡單、更傻瓜,而相機系統的發展主要是為下游流程提供更強大的控制場景和捕獲信息的能力。

的確是方便了,技術是下沉了,給更多人帶去享受攝影樂趣的機會,但這和效果更好的技術是兩回事。

這個具體可以看我之前的回答:

現在的單反、微單廠商開發與華為 P30 pro 類似的演算法,並應用在自家機身上是否現實??

www.zhihu.com圖標

我們這兒有句老話是這麼說的:樣樣會,無樣精。這個就能很好描述當前手機攝影的窘況,遠看發個社交媒體效果還挺不錯,細看那個效果就應該被丟出去。

而在相機這邊,想要追求極致性能,它所附帶的代價必然是同樣極致的——海量的數據意味著海量的處理能力需求,活脫脫一個算力黑洞。想在本來就很局促的機身內塞入能滿足如此龐大算力的處理器,同時兼顧續航和散熱,可能嗎?所以我們依舊不得不回到具有更強大算力的設備前來處理。

和你們講個鬼故事,現在的某旗艦手機是 10MP,10bit 的數據量。

隨便一張相機 RAW,24MP,14bit。

目前的 135 像素旗艦,那就是 60MP,14bit。

你猜這個需要的算力差距大不大?

關於 4800 萬像素 PNG 格式為什麼後期空間依舊很小

一句話說完,PNG 其實也還是存著每個像素每個顏色通道 8bit 的信息,所以本質上在後期空間里和 JPEG 沒什麼區別,這些是適合用於分發(delivery)的文件格式,而並不適合作為處理的中間文件(intermediate)。

一張 4800 萬像素的 PNG 文件,每個通道 8bit,一共三個通道(R、G、B),不包括無信息的透明通道,假設無壓縮,文件大小在:48MP x 8bit x 3 = 137MB 左右。

假如是一張 48MP 的 14bit 無壓縮 RAW,它的大小大概在:48MP x 14bit = 80MB 左右。

注意到區別了嗎,PNG 記錄了每顆像素 3 個色彩通道,各 8bit,一共 24bit 的信息,而 RAW 則是每個像素記錄了 14bit 的信息,看起來信息更少,但為什麼後期空間會更大呢?

這裡就要講到相機是如何記錄色彩,以及 RAW 文件是如何工作的了。

先說個很反直覺的東西,CMOS 是無法記錄色彩的——對於 CMOS 里的每個像素來說,它只能感受到光線的強度,但對光的顏色信息是一無所知的。

那我們怎麼拍攝出彩色照片呢?

這就是每個像素前的微濾鏡發揮作用的時候了:這些紅,藍,綠的顏色濾鏡,也就是說只讓那種顏色的光透過,這樣像素就能看見某種顏色的光的強度了。

而由於這些色彩濾鏡遵循某種特定的排列方式——最常見的就是 Bayer Array,拜爾陣列

在導入外部軟體,比如 Lightroom,Capture One Pro 的時候,軟體可以通過一系列的計算,來根據相近像素的信息來推算出那個像素該有的顏色,這一過程也被稱為「猜色」或者「去馬賽克」(demosaic)。

那我們就了解了 RAW 的本質它是記錄感測器上每個單色像素點的電荷量(光的強度),而每個像素的色彩信息其實是根據感測器里的元數據算出來的——而算出來的這張圖,它的大小將會是 48MP x 14bit x3 = 240MB 左右,是不是感覺也沒大多少?

但仔細算一算,這裡面信息可就多多了:2^8^3=1670 萬,2^14^3=4.39 萬億。

驚不驚喜?

至於暗部一團糟,其實還是底小惹的禍,可以參見我之前介紹等效光圈的回答,看這裡:

為什麼ISO越低畫質越好,不是可以後期降噪嗎??

www.zhihu.com圖標

如果覺得有用的話,不妨點個贊,順便關注一下我?

以上。


原理相同,但RAW的格式是不通用的,所以格式上是不同的。

RAW本意也是更大的後期範圍,但是手機的感光器太小,動態範圍和寬容度都很低,因此手機的RAW可以使照片質量有所提高,但並不能像單反的RAW可以讓照片好很多。


有手機不清楚相機的RAW是14BIT 攝像機可以到16BIT 兩比特大概多四倍的信息還要多一點


原理是相同的,都是記錄下更豐富的數據。


五菱宏光叫車,科爾維特也叫車。區別就是質量不一樣


手機出的raw寬容度高嗎

華為的多幀HDR它不香嗎?

首先文件格式就不同,手機一般是DNG,索佳尼三個都是不同的arw、cr23和nef。然後bit數不同,相機一般12-14bit,手機一般10-12bit,粗糧有個14的。bit數和寬容度無關。5d2也是14bit,但是總所周知寬容度垃圾。而且我的看法是,相機的raw是拿來用的,而手機的raw是拿來吹的。鹹菜燒不出燒鵝位,你就算支持raw輸出但始終都是1/2.3底,這個逆天改命不了。


起碼夜景raw格式還不如普通的優化!


Google: computational raw


推薦閱讀:
相关文章