如題,現如今手機拍照已有所謂的AI加持,但我很好奇相機與人眼所成的像差別在哪裡呢?


問題的前提不對,相機和手機不一樣。

ai照相手機也就是噱頭,不要太當真。

至於人眼和相機的區別,人眼是個超廣角,而且畸變控制非常厲害,光圈也超級大,寬容度也是完爆現代科技

人眼的性能除了寬容度其實一般,主要是負責後期的大腦性能實在是太強悍了。

舉個例子:如果我們只用單眼的話,理論上視神經穿過視網膜的那個地方是不感光的,也就是盲點。理論上看到的畫面應該是整個畫面中間有一小塊是黑的。然而我們哪怕是只用單眼,看到的畫面也是完整的,就是大腦使用實時高速多幀合成物體識別等技術把那塊缺失的視野給補上了。。。。毫無PS痕迹


人眼裡面有視桿細胞和視錐細胞,所以人眼的hdr效果和可視亮度範圍很大,當然切換起來也沒那麼快。

相機基本上是一塊cmos上面全是一樣的像素點,所以在一個環境裡面,他們的亮度差是有一定範圍的,通常比人眼低。

另外相機處理器現在比人眼還真沒什麼優勢,人眼的焦點合成太強悍了。


人眼的寬容度要比照相機高多了,所以在處理高反差圖像的時候要比相機好。 相機在處理白平衡的時候,其實是靠大腦進行修正的,比如在紅光下看白色的東西,人的大腦會下意識的處理成「白」,這個是心理暗示的原因。有人會爭辯說無論相機能否抗衡人眼,這都不重要,因為相機的主要目標在於獲取看上去真實的照片。沖印的照片並不知道眼睛會關注哪個區域,因此每個部分都要包含最大的信息量,以便眼睛聚焦時能看清。這對大尺寸沖印來說的確是對的,然而,還有人堅持要考慮相機的性能。 總之,視覺系統的絕大多數優點都源於我們的大腦能智能地解析眼睛看到的東西,而對於相機,記錄下的只是原始圖像。即便如此,目前的數碼相機進化非常迅猛,有的已經超越人眼的一些視覺能力。而最後的贏家在於攝影師。



人眼看一個場景,是會用多次聚焦的方式把整個場景分割成不同的部分,再輸入大腦拼合成完整的一個畫面。

所以除非你刻意盯著一個地方看,否則你會發現眼睛所看的一切都是清晰的,而且就算是逆光的天空和大樹下的陰影同時存在於畫面之中,人眼都可以看到細節。

而相機通過單次拍攝還做不到這點。所以相機要用AI,通過多次對焦/曝光並堆棧的形式模擬人眼的成像。

但相機和人眼不同的地方在於,相機可以長時間曝光留下一段時間積累下來的畫面變化(例如車流效果和水流效果還有星規),而人眼只能留下瞬間畫面。

相機性能某些方面比眼睛性能好,比如變焦,長曝,超廣角,高速攝影,慢門等等



人眼不用電池續航,對焦不用電。對焦速度比相機快,開機速度也比相機快,寬容度比相機高。


區別很大,從相機角度來講

現在的高級相機對接速度已經很快了,但在人眼面前根本不值得一提

相機需要更換不同的鏡頭來滿足拍攝需求,而人眼觀察範圍近似於80定的鏡頭,不能變焦

相機可以調節光圈快門等進行創作,拍攝流光照片等,而人眼沒有快門,只有類似於光圈的瞳孔,瞳孔的開合大小是為了適應環境看清物體

受到鏡頭因素,相機感光元件的制約,在很多場景下相機的照片質量跟人眼看到的實景質量是有很大差距的(微距除外),根本沒有可比性

可以這麼說,相機是為了記錄,創作使用。人眼是為了看清物體。成像質量根本不是一個檔次

另外人眼其實更像攝像機
價錢和功用都差著數量級

你能找到一台超廣角,自動變焦,自動成像,自動後期處理,可隨身攜帶,可全天續航,連續使用幾十年只是鏡頭變模糊的相機嗎?


推薦閱讀:
相关文章