我覺得過高解析度會造成識別效率降低和數據龐大,但是不知道要怎麼具體解釋?能否舉例子。


這個問題,你已經自問自答了啊。舉個例子,很簡單,10米解析度,一個格子(grid,像素),而1米解析度,同樣的實地範圍需要100個格子,這肯定會導致數據量曾幾何數增長啊。至於識別效率低,原先識別1個格子,現在要識別100個格子,對吧。

至於需要什麼精度的解析度,籠統一句話,根據不同的應用需求。舉個例子,如果你要做土地現狀分類,可能10米就夠了,但你要違章建築識別,可能需要更高。水務上,如果你做下墊面識別,也許10米足夠了,但你要在小區做LID設計,應該要更高。


從資訊理論的角度來說,決定了系統性能的關鍵因素只有帶寬和信噪比。帶寬可以等價換算成解析度,但是一味的追求解析度可能導致信噪比的下降,反而使得信息量下降。

最簡單的例子:蘋果的攝像頭早期只有800萬,但照片質量卻優於多數1200萬的甚至4000萬的攝像頭。


我覺得只考慮解析度其實有些草率,其實高分衛星這麼多,國內外還有環境和氣象衛星,經比較可以得知。高分衛星的成像儀載荷通道要比中低分的少很多,很多高分衛星只有若干可見光通道,而氣象衛星還有紅外,中紅外等等,美國近年發射的goes衛星多達16個通道,甚至有的還搭載了垂直探測儀等載荷又或者一些同步衛星屬於高軌衛星,可以達到每十分鐘觀測一次半球,對於颱風,對流,減災,海洋觀測更適宜而且高分衛星迴歸週期長,有些應急管理或者實時監控的業務很難開展。


另外一個回答說的挺有道理

實際上來說確實是越高精度能做更加細節的數據分析 就比如計算機視覺(CV)在遙感這塊的應用,識別衛星影像中的小汽車。這種情況下15米解析度級的landsat一些就完全不行。信噪比也是一個實際分析中必須要考慮的問題,處理步驟越多越容易失真(即雜訊比例高)。


我覺得還是看具體使用場景和想要實現的目的

需要綜合考慮其他因素:計算資源 時間成本 尺度問題 雜訊 特徵性質等

需要的話就越高越好

為了更高解析度付出的代價大於其帶來的收益的話 是沒有必要的


我認為是好的!越高解析度就包含越多的信息,能讓你做更多的行業應用,如果不需要這麼高的空間解析度可以做重採樣!識別效率現在更取決於你的演算法和計算架構吧!gpu啥的用起來!速度不會慢的!存儲更不是問題了!硬碟現在都白菜價了!


推薦閱讀:
相關文章