咱們今天不說動畫和攝像,而是相機。人類從繪畫到黑白相機再到彩色負片,直至今天的數碼彩色相機經歷了好幾個革命,不知道未來的相機會是什麼樣的呢?會不會是「全息」呢?但是這樣的照片應該是幾十幾百個機位同時拍攝吧,需要架設很多架子。如何做到像今天手機自拍一樣簡單呢?


最近二十年,相機行業發生了天翻地覆的變化。筆者作為攝影愛好者一直嘗試使用各類相機,也作為前大疆的設計主導和產品經理親歷過無人機和手持雲台的發展,積累了一些思考。在手機當道的今天,未來的相機會何去何從?今天我們來探討一下。

兩次顛覆

在預測未來前,先回顧一下過去的發展軌跡。下面這幅產量圖,灰色代表膠片相機,藍色綠色都是數碼相機

圖表來源:CIPA

可以看到數碼相機在很短時間內就搶佔並擴張了膠片機的市場。九十年代末才進入市場,四年後到了2003年,數碼相機的數量就已經是膠片機的3倍,到了07年膠片機甚至已經基本絕跡。

是因為數碼相機的畫質更好嗎?

並不是,03年的數碼相機大約只有三百萬像素,照片的清晰度和寬容度都不如膠片。主要原因是產品的使用方便性/易用性有了數量級的提高

絕大部分人拍攝照片的目的並不是單純拍張照片記錄現實,終極需求是把它分享出去,獲得贊同和共情,才能達到最終的滿足感。膠片機要完成這一個過程,從買膠捲,拍攝,拿去店裡洗出來,不僅需要勞神費力,還需要等待數日,才能看到自己拍的照片是什麼樣子,也只能分享給身邊的朋友觀看。如果想分享到線上,還需要掃描,並用電腦上傳到網路相冊。以上每個步驟都需要花費額外的金錢和時間。而數碼相機就摒除了這一切,雖然畫質不行,但是拍完立馬可見,也不用擔心膠捲錢可以隨意拍攝,拍完了直接複製到電腦里就能上傳到網上。幾天的周期縮減為小時,並全程免費。

再後來,手機上開始搭載攝像頭,到後面智能手機的普及,又將拍攝和分享這一過程從小時壓縮到了分鐘的級別,再一次顛覆行業。

同時還有兩個很大的進步:

  • 分享和瀏覽其他人的照片不再依賴電腦,在手機上就可以完成。
  • 手機的便攜性強於數碼相機,並且人本來就需要攜帶手機,所以沒有額外攜帶相機的負擔。

這也就導致了大部分人只要有手機就夠了,不需要再單獨買相機。這是智能手機出現後的圖表:

圖表來源:CIPA

黃色代表智能手機,對普通數碼相機形成絕對碾壓,把原本蒸蒸日上的傳統相機企業打得措手不及(從2000年高速增長到2010年後就一落千丈)。注意,此時手機相機的畫質也是不如普通數碼相機的。


從計算攝影到機器人攝影

這兩次消費級相機的更新換代,都伴隨著產品使用成本的大幅下降(包括金錢,時間,和攜帶的總體使用成本),照片畫質降低,以及銷量大幅提升

人是很懶的動物,大部分都願意為了方便而犧牲質量。(這在其他行業也屢見不鮮,比如音樂和電影,如今大部分人都不會再去買音質畫質更好的CD/藍光碟,而會選擇在網上點播嚴重壓縮過品質的mp3/視頻。)

這也是破壞性技術變革的特徵之一:性能較差,前期利潤率低,但能滿足低端市場需求。市場培養起來後,由於量大有充足的研發資源投入,再逐漸實現性能反超(目前數碼相機的畫質和性能已經超越了膠片相機,而發達地區也能夠在網上點播無損音樂或者 4K HDR格式的視頻),如圖所示:

套用上面的圖表來看消費級相機行業,可以得出:

  • 第1種技術就是膠捲相機的光學和膠捲

——基本已經停止進步了;

  • 第2種技術主要是傳統數碼相機的數字感測器(sensor)

——目前進步緩慢(我七年前購買的尼康D600,目前還排在DXOMARK的 sensor排名前20,並且和第一名的哈蘇中畫幅相機都差距不大);

而目前正在快速發展的第3種技術,重頭戲是相機(或手機)的處理晶元和軟體,也叫做computational photography(計算攝影學)

由於尺寸限制,導致手機攝像頭的光學部分嚴重先天不足,但是通過強大的處理器以及智能的軟體後處理,可以讓手機直出的照片,在日常場景中逐漸接近傳統相機。如常用的自動HDR,夜拍模式,自動拼接,場景識別,景深模擬,濾鏡,人物美化等,已經深入滲透到日常的拍攝當中,這在以前傳統數碼相機時代都是需要攝影師花大量時間在電腦上完成的。而如果傳統相機也搭載上強大的晶元和 computational photography 功能,也會更上一層樓。(其實人眼也有不少先天缺陷,比如有盲點,周邊視力解析度低,感光細胞被血管和節細胞遮擋等,但由於大腦強大的後處理,一般情況你都感覺不到這些缺陷)

這也揭示了相機發展的另一條線索:

  • 早期膠捲相機:純光學儀器,需要人來做出所有的拍攝決策和後期處理(洗照片)
  • 傳統數碼相機:有輔助系統的相機,可以幫助人做最基本的決策(光圈,快門速度,ISO,對焦等)和後處理(RAW轉JPAG)
  • 智能手機:光學系統最弱,但是有較強的處理晶元和軟體系統,可以做簡單的決策(場景,物體識別)和後處理(濾鏡,美化,HDR,拼接等)

那麼我們可以推斷,未來推出的相機將會擁有強大的處理晶元和人工智慧,可以做出複雜的決策,甚至自主完成拍攝和後期整個流程

而這時候相機就可以被叫做攝影機器人了,到時 computational photography(計算攝影)也會進化成 robotic photography(機器人攝影),而這也會與目前發展的機器人視覺息息相關。

這和汽車的發展路徑非常相似,從一開始的純機械手動擋汽車,到自動擋配有簡單的輔助功能(ABS防抱死,TCS牽引力控制等),到配有ADAS高級駕駛輔助系統(自適應巡航,車道偏移報警,碰撞避免等),最後到未來的全自動駕駛。目前市面上大部分汽車還是L0-L2的水平,只能做一些輔助的決策,而駕駛最重要的決策:方向和加減速,還是由人來決定。

對於攝影來說,光圈快門等基本決策,只能決定一張照片是否合格,而真正決定一張照片是否優秀,最重要的拍攝決策其實是構圖(相機空間位置和鏡頭指向),以及按下快門的時機。拍攝者需要根據自己經驗,審美,以及想像力來預測,將相機放置在什麼位置,鏡頭對著哪個角度,取哪個區域的畫面,在哪個瞬間按下快門,會產生精彩的照片。通俗的講就是要有「發現美的眼睛」。

而最重要的後期決策其實是:選照片。攝影師以審美和眼光,來判斷哪張照片拍得好,再進一步用合適的風格去調色處理。

同理,對於視頻拍攝來說,最重要的決策就是運鏡(相當於動態的構圖)和剪輯(選擇哪段視頻,以什麼樣的順序和節奏拼在一起)。尤其是剪輯,是一項相當耗費時間和耐心的工作,要從幾小時的視頻素材里剪輯出一分鐘的視頻,就可以在電腦前耗費一天以上。

這些因素是一般人拍不出精彩照片的原因所在,也是目前主流相機愛莫能助的。所以不少人雖然擁有昂貴器材,卻依然拍不出好的作品。

因此,目前對普通人來說,拍攝的兩大痛點是:

1. 缺乏眼光,想像力和拍攝技巧,難以拍出精彩照片/視頻

2. 做出合適的後期處理需要審美,技巧以及大量的時間

如果下一代產品能解決這兩個痛點,就能顛覆現在的相機。現在的產品已經做到了讓每個人都能拍的目標,那麼下一代產品就是要做到讓每個人都能拍好,甚至不需要人拍。而做到這一點的,可能不是傳統相機公司,而是人工智慧/機器人領域的公司。


相機智能化分級

模仿自動駕駛標準,下面我給相機的智能化分了級別:

目前主流相機只達到L1-L2的水平。由於手機無法移動自身的位置和鏡頭角度(除非搭配配件),無法完成自主構圖,只能在其他地方做文章。

比如索尼目前推出的自動快門功能:只要打開相機app,手機就會開始分析動作和笑臉等,在後台自動拍攝若干照片,等你手動拍攝完畢後,可以和自動拍攝的做比較和選擇。

△ 如Sony宣傳圖中,右下角是手動拍攝的,由於人的反應延時,已經錯過了最精彩的時機,而前三張自動捕捉就更好

而在 computational photography 這方面,Google目前走在了前面,除了自家的pixel手機用很差的硬體(單攝像頭)就達到了很高的拍攝質量外,Google相冊也提供了很多自動後處理的功能。你拍攝的任何內容,都會在後台被自動分析和處理,比如:

  • 自動選擇一些照片做風格調色
  • 把連續拍的幾張照片自動對齊做成GIF動畫
  • 把同一個地點拍的幾張照片合成全景圖
  • 將一次活動(婚禮,或者旅行)的所有照片自動做成一個相冊或者拼貼
  • 識別照片的內容,讓你以後可以直接用文字搜索到這張照片(如人名,地點,活動,物品名稱等)

這一切都完全不需要用戶干預,會在後台自動完成,用戶只需要保存自己喜歡的成品就可以。這個方向發展下去,只要做到足夠智能,基本上就可以解決目前相機的第二個痛點。這個APP(GooglePhoto)在Android和IOS上都能下載,評價很高,感興趣的同學可以翻牆嘗試。

Google通過在Android上預裝以及IOS上大量用戶主動安裝這個相冊APP,可以收集海量用戶拍攝的內容(拍攝後自動上傳雲端且沒有空間限制)和行為(哪些照片被選中後期並分享,哪張照片被刪除),積累了大量機器學習的素材和經驗,這也是Google在未來相機智能發展的一大優勢。Facebook也擁有全球最大的攝影分享平台Instagram。反觀國內,沒有一家這樣的企業能做到這個量級,擁有主導AI攝影的潛力。(百度騰訊,請到走廊外面反思)。


新品類消費級相機解析

講完手機,我們來分析一下目前幾個新品類消費級相機(運動相機,360全景相機,無人機,手持雲台相機)的優勢劣勢和未來的潛力,也許在這之中會出現下一個顛覆者。

運動相機

運動相機以GoPro為代表,是體積小,防水耐摔的魚眼鏡頭相機,廣泛用於極限運動(衝浪,滑雪,潛水,山地車)等容易造成一般相機損壞的場景。由於能輕易安裝到各處,可以拍出很多獨特的視角。更多用於拍攝視頻。屬於戶外運動達人展示自己的必備器材,但對於一般人來說,使用頻率很低,比較雞肋。

從GoPro 2002年創立到現在,產品和市場基本成熟穩定,之前一大痛點是視頻在劇烈運動中抖動的問題,目前新一代產品也已通過機內數字視頻防抖(EIS)功能很好的解決了。(有趣的是大疆剛剛進入了這個市場,且看之後會有什麼新的發展)

剩下最大的痛點,是「拍攝一時爽,剪輯火葬場」,一次拍攝動輒幾小時的視頻素材,剪輯的工作量巨大(光看一遍素材就要幾小時),可能需要幾天。導致有大量拍攝的視頻是直接進硬碟吃灰,白白浪費,降低下一次使用的積極性,讓使用低頻的問題雪上加霜。就連我之前進行直升機滑雪拍的視頻,放了快兩年了也沒有剪輯,只處理了照片(上圖),之後也幾乎沒有再用GoPro。

今年滑雪都是直接用手機拍,效果也足夠好了(上圖為朋友詩清為我拍攝)

Gopro也意識到了這個問題,收購了剪輯軟體公司推出了Quik這個App,方便用戶在手機上剪輯視頻,同時也具有自動剪輯的功能。然而體驗依然不理想,需要將大量視頻從GoPro傳到手機,而自動剪輯的智能程度依舊停留在比較智障的水平。

要真正做好自動剪輯,機器首先要分析和理解視頻素材中的人事物,識別出哪些片段值得放入成片(有精彩的動作,重要的人物,難忘的表情,美麗的風光,或者有趣的事情等),再配上合適的音樂,以合適的節奏和順序把這些片段接到一起。而目前硬體的算力和軟體的智能程度都做不到這一點。如果哪個公司做到了,就解放了大量時間,用戶拍攝和分享的積極性也會大大提高,運動相機也許會重獲新生。

手持雲台相機

消費級的手持雲台相機以大疆的OSMO系列為代表,是將雲台與相機結合的新物種,通過三軸機械雲台,可以過濾掉任何手持和運動過程中產生的抖動,保證拍出平穩的視頻,適合Vlogger(視頻博主)等業餘視頻製作者,也可以做為專業視頻工作者的補充相機(Bcamera)。由於機械雲台不耐摔不防水,因此只能適用於一般生活場景,不適合極限運動。在數字視頻防抖(EIS)已經做得越來越好的情況下,機械增穩對於一般用戶也不是剛需。

最近發布的OSMO Pocket

目前這個產品的主要賣點是「視頻增穩」,但這個產品形態在未來有著更大的可能性。

前面說了,由於手機無法移動自身的位置和鏡頭角度,因此與自主構圖無緣。然而雲台相機可以通過機械雲台主動控制鏡頭在xyz軸上自由轉動,已經具備了主動構圖中調整鏡頭角度這一條件;雖然還不能移動自身位置,光憑鏡頭角度的調整已經能完成基本構圖工作。接下來只要輔以足夠的人工智慧,讓相機能夠做出構圖相關的決策,雲台相機就能進入到L3的等級。在位置不能移動的情況下,構圖相關的決策也就簡單了很多,主要是考慮下面三點:

1. 哪個是應該拍攝的主體?

2. 主體放置在畫面中的什麼位置?

3. 環境中其他物體哪些是無關干擾應該排出在畫面外,哪些有助於表達主題而應該留在畫面里?

第一點相對簡單,一般用戶拿著產品正對著方向的一般就是,這時候通過人臉識別/物體識別再進一步鎖定就可以。稍難的主要是第2,3步,因為涉及到審美判斷,根據情況不同,會有不同的選擇。下面以我拍的幾張照片為例介紹一下攝影構圖的邏輯:

△這張照片,由於媽媽和小孩的動作成對稱姿態,我就將對稱線放在了中間,強化對稱感。

△而原圖是這樣的,可以看到周圍有其他的人和船,在這裡他們為干擾項,於是被排除出畫面外。

△這張照片中小孩就在偏右方,他的眼神外眺,突出調皮可愛的感覺。周圍的其他雜物也被排除在外,只保留小孩和彩色的牆。

△這兩張照片背景比較對稱,又是單人主體,於是採用中心構圖,然而為了突出鬧中取靜,以環境的熱鬧對比主體的孤獨,故意將路人保留了下來。其中圖二用了0.6s的長曝光,將移動的路人模糊化,突出主體,同時做動靜對比。

△這是在路邊賣火雞的男孩,因此需要把火雞保留在畫面里而不是剔除掉。由於火雞和路牙形成了一個斜對角引導線往右上方指向小孩,因此把小孩放在畫面右上角,畫面更加平衡。(如果用長曝光或者更大的光圈將背景的車模糊化,突出小孩效果會更好)

這些都是攝影師在拍攝時需要根據場景,被攝主體,以及自己的審美和創作意圖去做的判斷和決策。如果AI能做到,就能讓雲台相機自主拍出比一般人類水平更高的照片/視頻,革命掉普通的相機,也可以拓寬很多以前沒有的使用場景,比如:

  • 常置在家中,隨時拍攝家中小孩和寵物突發的,不經意的精彩片段。同時作為監控,出了事故可以警報家長。
  • 旅行時掛在背包上,胸前等,一直觀察,有好的機會和場景隨時拍攝。這樣就不會為了把相機拿出來拍照而打斷和干擾了自己的體驗。

只是目前的產品都還比較智障,搭載的算力和智能都遠遠達不到這些要求,還停留在不論三七二十一通通把主體放在畫面中間的水平。

無人機

無人機以大疆Mavic系列為代表,是一種將四旋翼飛行器,機械雲台以及相機結合的產品(可以點擊結尾的閱讀原文查看我以前在知乎寫的Mavic設計過程介紹)。由於可以飛行,能夠拍到很多一般人和相機都拍不到的獨特視角,是其他相機所無法取代的,也成了攝影愛好者和影視工作者的必備器材。非常適合拍攝風光,戶外運動,建築等大場景,不適合室內以及近距離人像。由於操作較其他相機複雜,產品的使用風險也比其他相機大(飛行中容易損壞,丟失,也可能傷人),在不少地區都限飛或者禁飛,限制了無人機在主流市場的進一步發展。

無人機相當於搭載了雲台相機的飛行平台,不僅可以調整鏡頭角度,還可以移動自身的位置,相當於擁有了完全自主構圖的物理可能性。只要足夠智能,就可以達到L4的水平:完全自動拍攝。這是目前所有其他相機所沒有的潛力。

要達到這點,無人機首先要能自主並且絕對安全地在各種環境中自由移動,不能撞到障礙物,更不能傷人。目前大疆無人機已有一些簡單的自動飛行功能,如避障,巡航,跟蹤等,但可靠性距離完全自主還相距遙遠,需要人類操作員密切注意運行情況,否則很容易發生事故,大概是L2的水準。而美國SkydioR1無人機,通過搭載NVIDIA Jetson的AI處理晶元和13個相機,讓環境感知和理解的能力大大增強(甚至可以在樹林中靈活穿行),自主飛行達到了L3的級別,但犧牲了便攜性,續航,抗風性,畫質,以及售價(2000美元),屬於劍走偏鋒,不適合普通消費者。

有了自由移動的能力後,就可以做自由構圖了。自由構圖和之前雲台相機的固定位置構圖又不一樣,複雜性大大增加。固定點構圖的相機位置已經固定,能看到的畫面也就固定了(不考慮時間變化的話),選取合適區域取景就可以。而自由構圖除了考慮主體放置在畫面中的什麼位置外,還要考慮主體和周圍環境的位置關係並做調整。這需要對空間的理解和想像能力。攝影師在看到一個場景或物體後,腦海中就可以構建一個大致的三維模型,並可以預測(想像)如果從其他位置和角度看會是什麼樣子,哪個位置和角度能產出最佳的效果,這也是對攝影師創造性要求最高的一個環節。

以我在南美用MavicAir拍的兩張宣傳照片做例子:

△ 這是普通的視角,由於小艇左邊有冰川,於是選擇把無人機飛到小艇右邊,以冰川作為背景拍攝。如果無人機在小艇左邊,那拍出來的背景就會是普通的大海藍天,效果便差多了。

同時,看到碧藍地海面上浮動的大片潔白冰塊,想像到如果從正上方往下俯拍,會出現很有意思的圖案紋理,於是又出現了下面這張截然不同的照片:

下面是我在青海給Mavic Air做高原測試時順便拍的照片:河水在沙地上形成的河道彷彿一隻飛翔的青鳥。這種構圖就需要人的聯想能力。如果只是普通往下拍,而沒有青鳥的主題,這張照片就失去了意思。

上面的決策過程對人類來說自然簡單,對於現在的AI來說卻是非常困難的,尤其是審美,想像和聯想的能力。這是需要將人文藝術和科技深度結合的領域,能做到的公司屈指可數。

目前大疆無人機也有一些簡單的自動拍攝功能,如把人物放在中間並跟蹤拍攝,和一些預設的拍攝軌跡(環繞,飛遠,飛高等),也能拍出精彩的視頻。但在什麼情況下用什麼模式,從什麼角度拍效果好,還是需要人來判斷,無人機只會機械地去執行。不過我相信,在未來無人機會成為一個自主攝影師的角色,可以全自動拍攝出精彩內容。到時連遙控器都不是必須的,人只需要下很籠統的指令如「拍一下那座山」,「給我和這個冰川合個影」就可以了。而那時無人機甚至會像攝影師一樣給人下指令,如「請往左邊走一點」,「朝右邊看」,「確定到哪都要揮舞絲巾嗎?2040年已經不流行這個了」。

全景相機

消費級全景相機以insta360為代表(GoPro也有,但價格過高),主要通過縫合正面背面各一個魚眼相機鏡頭拍攝的圖像,產生360度無死角的照片/視頻,再通過後期裁剪,也可以輸出普通視角的內容。由於拍攝時不需要考慮鏡頭指向,非常方便,但是同時也造成後期的處理和剪輯比普通相機麻煩很多。不同的創新玩法很多,也造成使用全流程比普通相機複雜,是一把雙刃劍,目前還屬於非常小眾的範疇。

不過這也是在未來很有潛力的相機形態。

首先它有機會取代普通運動相機。因為運動相機本質就是一個單魚眼相機,全景相機只是在背後多加了一個魚眼,功能完全可以覆蓋普通運動相機。而它又多了很多普通運動相機沒有的功能和玩法,比如子彈時間,擦除自拍桿(效果接近無人機近距離跟拍),自由切換FPV視角和自拍視角等,這些對於運動拍攝都非常有用。

擦除自拍桿(影子還能看到)功能,看起來就像懸浮相機跟拍。視頻來自insta360

其次,因為有360度的視野,沒有視角限制,天然適合做EIS(電子增穩),並可以通過裁剪來自由取景,也相當於兼有雲台相機的功能,在搭配上足夠的智能後就可以自主構圖(現在手機上也逐漸搭載了超廣角鏡頭,也有這部分潛力)。

它目前主要有兩個大的短板:

1. 畫質較差:因為本身感測器尺寸就小(1/2.3寸左右),全景視野裁剪到正常視野又會大大降低解析度,再加上全景鏡頭畸變,就導致全景相機的畫質是目前所有品類中最差的。而以目前的技術,要通過硬體(光學,感測器)來提升畫質,成本和體積一下子就會超出消費級的範圍。

2. 後期剪輯非常麻煩,因為拍攝的時候是把360度視角全部攝入,因此後期還要在軟體里先進行人工取景,才能開始正常的剪輯工作。雖然後期自由度非常大,可以玩出花來,但是相應的工作量大,對技術要求也很高,不適合一般消費者。反正我只剪過一段10s的視頻之後就不想再剪了。

這些在未來是可以解決的,自主取景和自動剪輯之前已經討論過,而畫質其實也可以通過人工智慧提高,目前也已經有了一些前沿的結果,可以看看下面這些通過機器學習後期提升圖片解析度的Demo:

△這是Google的RAISR(Rapidand Accurate Image Super Resolution),左邊是原圖,中間是傳統插值法提升解析度,右邊是機器學習演算法提升後的圖。

△上面是傳統插值法提升解析度,下面是AI提升解析度。有興趣可以去https://letsenhance.io/嘗試。

這個Google的技術更誇張一點,叫PixelRecursive Super Resolution,可以將馬賽克還原成圖像。就是將最右邊的原圖打上很重的馬賽克(變成左圖),再讓AI去猜測和還原成中間的圖像,可以看到和原圖已經很接近。

因此在 computational photography 以及人工智慧越來越發達的未來,全景相機的畫質也可以提升到滿意的水平。尤其是當今大家瀏覽圖片和視頻,大部分都是在手機的小屏幕上,畫質也就更加不重要了。比如下面兩張我在同一時間地點拍攝的照片,一張是用MavicAir(幾千元,搭載的相機大概是17年主流手機的水平)拍攝,另一張是用哈蘇中畫幅相機(一套相機鏡頭十萬以上,它的sensor在目前DXOMark上排名第一)拍攝,你能判斷出畫質的區別嗎?因此,下一代相機的革命之處一定不在於畫質。

參考之前的相機革命,也是產品使用成本的大幅下降(包括金錢,時間,和攜帶的總體使用成本),照片畫質降低,以及銷量大幅提升。而全景相機小巧全能,未來又能做自主構圖和後期剪輯的話,是有潛力的。


跨越鴻溝

目前這些新品類的相機,和手機比起來,雖然功能新穎多樣,但使用複雜,適合有能力有時間有閑錢去折騰的創作者和科技嘗鮮者,卻不太適合一般消費者。年銷量也停留在百萬級以內,上不到千萬級。

在科技經典著作《跨越鴻溝》(crossing the chasm)中,作者對市場做了早期市場和主流市場的區分,而他們之間有一個鴻溝,在早期市場成功的產品不一定就能順利進入主流市場。而在沒準備好的情況下強行進入主流市場,只會適得其反。比如市面上一些主打低端小白用戶定位的無人機,銷量就遠不如主打中高端/准專業的Mavic系列,原因就在於當前無人機還沒做到足夠的安全簡單易用,可以真正進入主流市場的地步(本文對於產品的優劣評論也僅針對主流市場,對於高端/准專業市場又會有不一樣的邏輯)。

目前手機相機已經滿足了消費者的剛需,而拍更好更獨特的照片視頻對普通消費者來說只是軟性需求(對專業人士是剛需),在目前這些新品類相機使用成本這麼高的情況下,選擇不買是很理智的決定。運動相機,雲台相機,無人機,全景相機,每個都要好幾千,每個一年可能也就能用得上幾次,平時都在吃灰,平均下來每次的使用成本不菲。而後期和剪輯麻煩又說明時間成本也高,同時還需要掌握不少使用技術技巧。使用的經濟,時間,技術成本三高,像早期膠片相機的情況:膠捲貴,手動曝光對焦難,洗膠捲時間久(最早還需要攝影師親自下暗房洗照片)。

如何降低時間和技術成本,就是通過AI自主拍攝和自動後期處理。而這要求相機上搭載極高性能的處理晶元,又提高了經濟成本。

也許需要設計出一個更加全能的相機形態,能儘可能覆蓋運動相機,雲台相機,無人機,全景相機的使用場景,這樣只需要一台設備就能滿足多種低頻拍攝需求,來提高產品的使用頻率,間接也就降低了單次使用的經濟成本。畢竟除了攝影發燒友,沒人會把每種相機都買一個。我們現在有一些初步的產品構思,之後有空也許會設計一個概念產品發布,有興趣可以關注

話說回來,本文對未來的設想離現實還有距離,人工智慧要達到人類審美和自主創作的能力也還需要很多年,更別說要集成在消費級便攜產品上了。在可以遇見的未來,手機還會是絕對主流的相機,其他獨立相機只能作為輔助的角色。值得欣慰的是,在手機相機,無人機/雲台相機,和全景相機方面,華為,大疆和insta360等硬體企業(但軟體和AI企業還不夠)目前都走在了世界的前列,國內也還有初創公司在做新相機的方向,未來可期。


最後打個廣告:我是鄧雨眠,在大疆主導立項設計了MavicPro和Mavic Air後,離職創業成立了自己的產品設計公司LeapX Design,幫助不同行業的客戶做出有突破和創新的產品,打造國際頂尖的設計公司。

有關項目/諮詢合作,或者想加入我們,歡迎郵箱聯繫[email protected]

我們的頁面是(需翻牆):

https://www.behance.net/LeapX

http://weixin.qq.com/r/Fi0ZAenEgrT9ra1i93gE123 (二維碼自動識別)

產品/設計領域的原創乾貨,歡迎掃碼關注

不定期低頻更新,請設星標避免遺漏

往期文章:

創新的邊界——記Mad Catz的倒閉

噱頭還是突破?深度分析Find X和NEX全面屏手機設計

形式的簡潔≠體驗的簡潔

Mavic無人機設計過程詳細介紹 (舊號,賬號已轉給DJI)


按太陽穴截圖,腦電波導出。

「哎你這視網膜高感不行啊」

「你這瞳孔太小了」

「這晶狀體毒啊,德味!」


看到前面幾位的回答,比較開眼界,下面就把我長期思考和幻想的腦洞也晾一晾。

首先交代一下我的使用場景,不然很多人可能會蒙。本人是一個從事家庭紀實性攝影的攝影者。攝影類目中,比較細分的一個。就是拍攝家常的照片。

我認為在未來5年內,完全可以實現,並且會飛入尋常百姓家的相機,是取景拍攝分離式相機。

為什麼這麼說?因為現在限制攝影師構圖的,就是取景技術。

光線通常情況下只能直著走。而人只能通過眼睛來觀看。現在幾乎所有的傳統相機,不包括哪些根本就不用構圖的相機,比如運動相機,取景方式仍然是通過眼睛看相機的某個部件,比如取景器或者屏幕。

這個極大限制了靈活的構圖。你的眼睛和相機之間必須有一條直線,而且是直達取景器的線。一旦這條線被阻隔,那麼你只能腦補構圖。

但假設世界上有這麼一種相機。它的取景器就在你的眼鏡上。相機本身不帶取景器就是一塊感光器。

你可以任意的擺布相機。而相機的所有取景信息都投射到你的眼鏡上。於是你可以輕易的做到,原先只有趴下,登梯子,在人群的大腿和屁股之間穿梭,才能做到的事情。

我想目前這個想法的一多半兒都已經可以完成。只是差把手機變成眼鏡,解放手這個最後的步驟。想想這個場景,帶著一副巫師眼鏡,拿著一個帶鏡頭的三軸穩定魔杖。可以輕鬆的懟臉,俯拍,仰拍,自拍。

此時你將不僅是一個攝影師,還是什麼呢?等我想想……

你說谷歌眼鏡加上微單,是不是已經能做到了?


我就是靠攝影吃飯的,兒童攝影,嗯。。。

其實我們的生意一直在下降,為什麼呢?因為手機的攝影質量越來越好了。

其實普通人和攝影師最大的差距在於構圖。而對光與影的理解,現在已經被手機的AI幾乎抹平了。

如果不考慮做彩噴放大的需求,手機照的照片在手機上是要比相機拍得更好的。之前手機拍不出大光圈強背景虛化的照片,現在這是手機的標配功能。之前手機的自動調光就像相機的p擋一樣不靠譜,而現在手機在ai加持下調光這件事情根本不需要人手動控制。

手機感測器不可能做大,這就限制了進光量。這是物理上的問題,祭出再多黑科技也沒辦法從根本上解決。進光量不足就決定了暗部細節不足以及補光不足的環境下部分像素點沒有信息或者信息不足,也就是噪點。現代的智能手機已經可以做到看不出噪點,是通過塗抹的方法實現的。如果你把一張手機拍出的夜景照片放大到30寸以上,那麼你將發現這張照片有濃濃的油畫感。現在ai技術突飛猛進,一張馬賽克圖片已經可以比較好的還原了,所以智能去噪點,通過修補而不是塗抹的方法,我猜很快就會普及。

另外專業相機的長焦鏡頭手機暫時無法取代。相機+大長焦+三腳架可以做到在觀眾席上記錄賽場內的細節,而手機雖然也開始有超高倍數變焦,但還是通過光學+數碼的方式實現的。長焦端的相片可以稱作記錄,但不可以稱作作品或者藝術。但我想長焦這件事情應該相對於進光量和構圖來說更容易解決,畢竟已有能用的產品擺上檯面了。

所以專業相機現在只剩下兩條是手機暫時無法逾越的。第一條是感測器大小及所帶來的感測器進光量問題。這個華為今年通過修改像素排列和像素顏色得到了提高,但進光量小是個物理問題,我想手機無法徹底解決。全畫幅相機的CMOS差不多有一個火柴盒那麼大,而手機CMOS最大也就做到五六個火柴頭那麼大。誰的進光量會更大一目了然。但是進光量小並不影響充足光照下的人像攝影,而這是大部分人的拍攝需求。第二條是藝術感知力,也就是構圖和後期調整及加素材等等。這個是攝影師最後的倔強,需要藝術感知力和空間想像力。很多人都會覺得自己照出來的照片不好看。其實很簡單,不要俯拍,要使鏡頭與所拍人或物處於同一水平線上就可以讓照片好看很多。而ai構圖什麼時候出現,以什麼形式出現將宣布針對個人的低端攝影服務徹底死亡。

所以未來的專業相機會是什麼樣?可能會是ai加持的大底機器,會給出構圖建議,M擋也將不再是最推薦的檔位。普通人上手隨便拍攝,只要遵從ai的構圖建議,或者ai拍照後立即進行小幅度裁切,就可以做到張張是大片的水平。甚至相機可以聯網,做到像siri一樣的人口述需求相機自動調整。例如我說「我要拍絲綢一樣的流水」,相機回答「ai智能防抖已開啟,請穩定握持相機對準流水,不要劇烈晃動,按下快門鍵後需等待10秒,知道聽見拍攝完成的提示」諸如此類的真?人工智慧。這個時代看起來真的近在眼前,也許兩三年,也許七八個月就會實現。

再遙遠一點的未來,全息攝影?那就不是攝影了吧。全息攝影可以理解為在空間上可以隨意旋轉觀看物體各方向的細節。全息攝影我覺得以現在的技術並不是什麼難點。手機已經可以輕易把人從背景中摳出來並虛(模)化(糊)背景,那麼找四五六七八九台相機轉圈拍一個人並把他與背景分離最後合成一個三維形象應該不是什麼難事吧。至少這個三維形象沿Y軸旋轉觀看應該不會丟失太多細節。全息攝影最大的問題在於播放介質。如果僅僅把這個三維形象以3D播放在屏幕里,那全息有什麼意義呢?如果是播放到現實生活中,那真的是大工程了,很貴而且不實用。所以最好的手段可能是ar,每人都站在一個全息拍攝場里,那麼ar後大家可以出現在同一場景內,而且人的排列是無所謂的。但是這條路還長,還有很多未解決的問題。而且這個到底還算不算傳統意義上的攝影還有待商榷。。。


無惡意的說感覺這些回答都很扯,若說未來的相機應該是相機的cmos會用「曲面感測器」吧,鏡頭製作工藝再好也解決不了「透視變形」,而這一技術理論上能解決,順帶我想說一句,科技與工業在發展只是讓人有更好的條件去創作,而不是這些取代人,攝影這事兒很多時候非常主觀,「最好的」不見得最精彩,不要本末倒置。


推薦閱讀:
相关文章