我觉得过高解析度会造成识别效率降低和数据庞大,但是不知道要怎么具体解释?能否举例子。


这个问题,你已经自问自答了啊。举个例子,很简单,10米解析度,一个格子(grid,像素),而1米解析度,同样的实地范围需要100个格子,这肯定会导致数据量曾几何数增长啊。至于识别效率低,原先识别1个格子,现在要识别100个格子,对吧。

至于需要什么精度的解析度,笼统一句话,根据不同的应用需求。举个例子,如果你要做土地现状分类,可能10米就够了,但你要违章建筑识别,可能需要更高。水务上,如果你做下垫面识别,也许10米足够了,但你要在小区做LID设计,应该要更高。


从资讯理论的角度来说,决定了系统性能的关键因素只有带宽和信噪比。带宽可以等价换算成解析度,但是一味的追求解析度可能导致信噪比的下降,反而使得信息量下降。

最简单的例子:苹果的摄像头早期只有800万,但照片质量却优于多数1200万的甚至4000万的摄像头。


我觉得只考虑解析度其实有些草率,其实高分卫星这么多,国内外还有环境和气象卫星,经比较可以得知。高分卫星的成像仪载荷通道要比中低分的少很多,很多高分卫星只有若干可见光通道,而气象卫星还有红外,中红外等等,美国近年发射的goes卫星多达16个通道,甚至有的还搭载了垂直探测仪等载荷又或者一些同步卫星属于高轨卫星,可以达到每十分钟观测一次半球,对于台风,对流,减灾,海洋观测更适宜而且高分卫星回归周期长,有些应急管理或者实时监控的业务很难开展。


另外一个回答说的挺有道理

实际上来说确实是越高精度能做更加细节的数据分析 就比如计算机视觉(CV)在遥感这块的应用,识别卫星影像中的小汽车。这种情况下15米解析度级的landsat一些就完全不行。信噪比也是一个实际分析中必须要考虑的问题,处理步骤越多越容易失真(即杂讯比例高)。


我觉得还是看具体使用场景和想要实现的目的

需要综合考虑其他因素:计算资源 时间成本 尺度问题 杂讯 特征性质等

需要的话就越高越好

为了更高解析度付出的代价大于其带来的收益的话 是没有必要的


我认为是好的!越高解析度就包含越多的信息,能让你做更多的行业应用,如果不需要这么高的空间解析度可以做重采样!识别效率现在更取决于你的演算法和计算架构吧!gpu啥的用起来!速度不会慢的!存储更不是问题了!硬碟现在都白菜价了!


推荐阅读:
相关文章