手機即使開了HDR或是單反的一些照片都不及人眼。人眼是如何實現多焦點曝光,看到不同於攝像頭的明暗的?


一個是視網膜的光敏範圍非常之寬,另一個是神經帶有側向抑制,相當於是自帶HDR

視覺細胞對光線變化敏感度很高,高光靠的是神經抑制,所有被高光照射的神經細胞都會激活反向抑制,你可以理解為大腦主動後期了一下,這種抑制不光是亮度,還包括顏色,會增加反色成分在你看到的物體上。你盯著一個物體看,再轉移到白牆上快速眨眼,你看的那個物體就會以反色形式出現。實際上這個時候你看東西顏色是不準的,但是大腦會腦補矯正顏色,大腦對顏色的腦補靠的是視覺暫留現象,就是你看到的東西其實在時間上是一串,而不是一個單獨的瞬間,大腦就是通過視覺暫留腦補顏色的,這個特性也啟發了iphone的影像團隊。

人眼強大之處還在於除了圖像上擁有hdr效果外,還擁有很高的對比度,並且能在感受高對比度的同時,感受到高寬容度。而數碼產品不行。數碼產品的hdr處理在達到一個hdr強度臨界值後,會犧牲對比度,造成失真。這是因為,人眼可以感受光線強弱,而感光元件和顯示器對圖像的採集和顯示,亮度只能通過白色來解決,而不是真正的亮度明暗信息。

打個比方,以一個紅燈為例,調節紅燈的亮度,人眼看到的是:紅燈很亮或者紅燈很暗,但它永遠都是紅色。而數碼產品拍攝紅燈,以及顯示設備要顯示紅燈的時候,紅燈很亮:顯示粉色;紅燈很暗,顯示暗紅色。因此,亮度信息也是未來顯示技術和感光技術需要解決的問題,我們的圖片缺少亮度信息,我們的顯示器無法表現亮度信息,它們都只有rgb。人眼神經可以在感受亮度、對比度的同時感受顏色,而數碼產品只能在顏色明度和白色、黑色上做手腳,所以目前的hdr仍然無法完全模擬人眼


答案是寬容度。

舉個例子,一根長度為x的繩子,現在要測它的長度

人眼是一把20釐米的尺子,可以一下字測出20釐米的距離

相機是一把5釐米的尺子,一次只能測5釐米

如果x大於5,小於20,那麼相機就需要多測幾次,即hdr

如果x大於20,人眼也是不夠用的。想像從暗房出來眼睛睜不開,或者突然進入暗房看不清黑暗中的內容。

把距離類比成光的強度,尺子就是寬容度。


我覺得是人眼寬容度的緣故吧…
話說是不是視網膜可以分區域改變感光度,而那些會過度曝光或者曝光不足的人種都被自然選擇掉了。。(??????) ?
因為人眼能接受的EV值比相機的寬,色域更豐富


推薦閱讀:
相關文章