如何看待华为Mate30 Pro 5G以123分再次刷新DxOMark手机拍照评分纪录?
华为 Mate30 Pro 5G 为何比 4G 版拍照更好?
12月17日,DxOMark网站正式公布了华为Mate30 Pro 5G版相机得分,其中拍照得分134分,视频拍摄得分102分,总分为123分,超过华为Mate30 Pro、小米CC9 Pro尊享版获得DxOMark手机榜单第一名。
这个问题的不少回答,似乎很快就变成了质疑DXOMark是否可信的论战。对DXOMark的争议其实由来已久,部分人认为它不可信的原因,无外乎它的评分高低与自己认为的拍照实力优劣不符,甚至只是自己不喜欢的手机得了高分不爽而已,却往往很少去仔细阅读它的评测报告来鉴定可信度。
像DXOMark这样的量化评测,优点是相对比较全面,得分高低很直观,易于理解,但必然无法涵盖所有拍摄场景下的表现。DXOMark得分高,说明一款手机综合拍摄实力不错,但就此认为任何情况下都拍的好就太理想化了(其中还牵涉拍摄者本身的拍摄水平),或者说对量化评测的要求太高了。如果想更细致的了解,肯定需要多方面的查找各种对比才能找到答案,嫌麻烦?那只能说您要求很高,自己却很懒。
天下没有看个得分就一切尽在掌握的好事,因为实际上没有任何量化评测能做到结果简单易懂同时面面俱到,能做到比较准确反映产品的差异性就可以了,至少对一般消费需求而言已经够了。
类似情况还有GPU或者显卡评测软体,比如曾红极一时的3DMark系列,它的得分高低也不可能反映一颗GPU在所有游戏中的性能优劣,但不妨碍它成为评测时的重要参考,因为它可以直观反映一颗GPU的大致性能水平。
如果想要细致比较两款GPU的优劣,那必然是除了评测软体,再上尽可能多的代表性实际游戏,通过双方胜负的多少(胜出比例)来判断哪一个综合更强。不同的游戏,因为3D图形引擎的设计特点不同,对GPU各方面的要求也不同,所以在结果准确的前提下,出现A GPU在这款游戏中输给N GPU,但在那款游戏中又赢了N GPU的情况都是很正常的事(没有用A和B举例,而是A和N不需要多解释吧)。
对GPU和图形引擎的特点了解不够而又自以为是的人,往往会头脑简单的认为某款GPU更强,那就意味著它在所有游戏或评测中都应该更强,估计是觉得「只要是3D游戏或评测,那需求就都一样」。自认为有了能分辨2D和3D的「超强水准」,于是自信满满的嚷嚷「明明xx游戏中这个GPU更强,它居然在xx评测中输了,这个评测就是扯淡」,这种行为纯属「无知者无畏」。
无论是相机领域的DXOMark,还是显卡领域的3DMark,它们都不可能尽善尽美,但已经能够完成各自的既定任务,这是它们安身立命的基石,只有短视者甚至傻子才会做造假自砸招牌的事。当然,顺应技术发展,持续自我改进肯定很必要。从用户角度,对于量化评测不盲从是应该的,但无脑唱反调并不能体现自己的高明。
DXO是一个开卷考试(标准 场景都公开,权重可能也对厂商公开),并且允许厂商接到他们的评测报告后优化完再送测
目前看来坚持的基本上只有2点,一个是系统必须是零售版,第二个是用默认模式测试~~但是这两点也在不断被打破
那么这样一个开卷考试,对消费者的价值基本上就比较明确了
1、不主动送测的厂商或者产品,其分数和手机成像水平的关联性,取决于DXO评测方法 标准是否足够科学~~目前看来DXO在这方面虽然还有很多问题,但是仍然是该领域最好的
2、主动送测的产品,如果分数不够高,那么成像效果上不必期待~~一个厂商都没有针对开卷考试优化的能力,却又主动送测,那么实际水平(软+硬)必然堪忧
3、主动送测的产品,即使分数够高,但是水平不够的产品(硬体基础,演算法能力),针对DXO调整很可能带来其它未测试领域的忽略或者劣化~~这就是典型的应试选手~~比如一加7P这种就特别明显
简单来说,DXO有很大价值,但是要结合消费者主观体验的普遍性来分辨分数相同或者相近的产品,实际效果如何
个人认为DXOMARK最大的价值是每一个子项都明明白白的告诉你评价标准是什么,怎么测的,按这个标准这个相机得了多少分。
所以,送DXOMARK测评是有意义的。
但是另一方面,测评的标准其实和用户之间的需求又多少有些不同。占绝大部分的用户要的是一个美颜相机+夜视仪+望远镜。
比如说同样是拍人像,黄种人和白种人可能表现出来的又不一样,审美也不一样。比如我们中国人大多数是黄皮肤,当然是尽量拍得白里透红觉得更美些,但白种人本来皮肤就白,再调白似乎就不怎么好了。
再比如说之前一群发烧友抱怨说你这像机怎么锐化这么厉害,没莱卡味了。商家又就大多数用户拍了要发朋友圈的,不多锐化点发朋友圈不好看。
还有就是华为为了体验,超广角摄像头是下了大本钱了,但广角分数并没有提升。
所以,追求DXOMARK高分可以证明实力,但是在此之外,能够更多的考虑用户需求,是厂商更应该去做的事情。
同一个测试,多考几遍,能考得更好,这一点我是支持的。
不过这里我跑个题,说说DxO的测评。
DxO有送测跟自测。有些机子是厂商送测的,有些机子是DxO自测的,与厂商没有半毛钱关系。
最典型的就是小米5,这事我恰好知道,当年DxO还是个不太有名的野榜。华为没有,小米也没有,只有一些大家不太熟悉的机型。
然后啊,有数码爱好者就跟网站联系,说能不能评评小米啊,结果评测者给回复了,我不评测小米是因为手头没有,谁如果能借一台给我评测我就评。于是乎,米粉就安排上了,真给DxO弄了一台。(很显然这机子并未对DxO评测优化,所以得分当然也不理想,其实米粉主动送测这大概是来源于对小米的迷之信任吧。)
后来的小米5sp是DxO自购的,因为DxO对黑白双摄的实际效果感兴趣,然后K20pro也是DxO自购测试的,因为对廉价手机的拍照能力感兴趣。很多米粉骂卢伟冰给K20pro送检真是莫名其妙,可他们不知道K20pro是DxO自购的,不是厂商送检的。
小米第一台主动送测的相机是小米Note3,这一点有很多消息来源可以证明。至于华为第一台主动送测的是啥我就不知道了。
但我想说明的只有一点:在厂商主动送测之外,DxO的评测机来源包括粉丝私下送测以及DxO自购,这在以前曾经是DxO评测机主要来源。
说几件事儿:
DXO榜单在国内到底是谁带起来的
第一、出现在DXO榜单上最早的国产手机不是2016年四月发布的华为P9,是2016年二月发布的小米5,且二者的分数接近,在P9分数发布的文章里同时测试了P8作为对比。
第二、2016年秋天发布的mate9出现在了DXO榜单上,同期发布的小米5s plus也出现在了DXO榜单上。
第三、国产手机第一次在DXO榜单上追平同期三星苹果的国产手机是P10,第二次是mate10 Pro,这是2017年,2017年春天小米没出现在DXO榜单上,秋天的小米note3出现了。2017年是华为手机相机崛起的一年,也是小米手机手机相机掉队的一年。
第四,DXO分数第一次出现在国产手机发布会上是Mate10 ,紧接著是小米mix2s,此后,DXO 便是华为小米的家常便饭。
我是支持DXO的,我也支持厂商送测,量化是消费者认识产品最好的方式,尽管这个量化标准可能不够全面。
华为和小米在DXO 榜单上你追我赶,背后厂商们不断进行的相机军备竞赛,以及,由此带来的国产手机阵营相机素质的快速提升和超越。
DXO是否是国产手机刷榜工具?
当然不是。
DXO最初的手机相机榜单长期是被苹果三星所霸占的,华为在引入徕卡双摄之后,P10的相机DXO评分追平iPhone7,Mate10则追平iPhone X,彼时,大家对DXO没什么争议,对华为也没什么争议,因为只是追平。
但P20 Pro超越iPhone X,且是大幅度领先,这个时候争议开始出现了。
实际上,P20 Pro在DXO评分上的大幅度提升,根本是硬体的大幅度提升,很多人认为这是作弊刷分,但实际上,到了今天人们终于认可了,大底、高像素和长焦,是真正的大趋势,目前的消息,三星将在2020年开始引入大底、长焦和高像素,苹果大概率会追随。
那么,当初对于P20 Pro所引领的大底、高像素和长焦的选择是对的么?
目前来看,是对的。
我们不能因为国产手机引领的潮流就认为其不是潮流,不能因为国产机表现良好的榜单,就是刷出来的榜单。
DXO能否完全代表相机的实际表现?
答案很简单,当然不能!
比如国产手机各家都在做的微距,DXO并不测试。
比如Mate30 Pro系列采用的超级超广角镜头,1/1.54英寸大底+F1.8大光圈,这是目前手机行业最顶级的超广角配置,但在DXO榜单上,却因为不够广而得分不高。
比如Mate30 Pro 5G对超广角镜头进行优化,调整畸变,却因为视角变窄而分数下降,这是否合适呢?
有人说广角是正义,这是建立在相同的规格前提下的,相同的画幅,相同的光圈值才有可比性,而如果画幅和光圈差异巨大的前提下,空谈什么更广的焦距没有意义。
再比如,相机的反应速度。
以及,各个子项目的权重在每个人的需求里是不一样的。
那么,是不是DXO就一无是处呢?
当然不是,DXO确实存在一定的局限性,但是,DXO的子项明确,测试清晰,说明清楚,且可复现,DXO或许不够全面和完整,但却是一个相对科学,可各家认可的标准。
什么叫各家认可呢?
华为在发布会上会公布DXO分数,证明华为认可。
小米在发布会上会公布DXO分数,证明小米认可。
高通在发布会上会公布DXO分数,证明高通也认可。
此外,荣耀、一加、OPPO等等,各家也会送测,三星既然在S10上刷了两次,那么,三星自然也是认可的。
什么叫标准?
评价你和我的准则,你认可,我也认可,这就叫标准。
Mate30 Pro 5G重测提升在哪里?
总分增加2分(121→123):
相机部分总分高了2分(132→134),夜景(61→66)、变焦(91→98)和散景表现(70→75)提升,不过有意思的是,超广角得分部分反而少了4分(34→30)。
视频部分的自动对焦(93→97)、纹理(75→79)和噪点表现(77→81),带来的结果是相机和视频部分的得分各增加2分(100→102):
如何评价Mate30 Pro 5G的重测?
手机相机表现=硬体+软体,这是行业公认的,且,软体的存在感甚至高于硬体。
2018年小米发布了三台手机,小米mix2s DXO评分97分,小米8 99分,小米mix3s 103分,这三台手机的镜头,cmos+isp都是完全相同的。
当然,有人说这是不同的三台机子。
2019年春,二月发布的三星S10+DXO评分追平P20 Pro和Mate20 Pro,但四月发布的P30 Pro再次刷新记录,之后S10+的5G版本也重新测试,得到了和P30 Pro一样的DXO评分。
S10 5G在硬体上多了一个ToF镜头,有人说所以二者不同,那么,我们来看看,这两台机子的DXO评分差异是否真的只是ToF带来的差异呢?
ToF的作用是测距,以实现更好的景深演算法。
S10 5G和S10+的相机部分成绩的增长还包括夜景的提升(54→59)、变焦的提升(68→74)和其他几项的微调,以及视频的提升,这和Mate30 Pro 5G以及Mate30 Pro二者的DXO评分差异基本类似。
Mate30 Pro 5G和Mate30 Pro是一台手机吗?
当然不是,而即便是同一款手机,既然手机相机=软体+硬体,那么硬体相同,演算法提升,又有什么问题呢?
拿小米的三款产品和三星的两款产品举例的意思是,手机相机表现=硬体+演算法,硬体相同,演算法提升,带来的DXO评分的提升,有什么问题呢?
华为是否永远是手机相机第一?
我觉得不会,2011年iPhone4s发布,苹果手机成为手机相机标杆,2015年,三星S6发布,三星手机相机取而代之,2018年,P20 Pro发布,后来居上,2019年末,小米CC9 Pro发布,凭借更恐怖的堆料追平Mate30 Pro,位列世界第一。
当然,现在Mate30 Pro 5G重回第一,但优势已经不大了,而小米对这套手机模组的优化显然还非常弱,未来换成骁龙865,换上更成熟的演算法后能否反超呢?
我非常看好。
那么,我们能否说这套硬体模组和原来的类似,所以重测是刷分呢?
我觉得不能。
手机的相机是硬体+演算法,无论是硬体的提升,还是演算法的提升,都是提升,DXO对这种提升进行二次测试,以更高的分数反应其提升,有问题吗?我觉得没问题。
华为做这个没问题,小米做这个没问题,三星或者苹果做这个也没问题。
实际上,今年DXO测试iPhone 11 Pro的成绩的时候,一直在等「the new Deep Fusion technology」的更新,DXO明确表示这项技术对于其细节的提升明显,这本质上也是产品发布之后的二次分数提升,有问题吗?没问题。
我们真正需要抵制的有两种,一种是无视规则,收钱改分,如果有人证明DXO真的在做这个,那么DXO的金字招牌怕是要砸了;一种是送测ROM和量产机ROM不是一个版本,挂羊头卖狗肉,这是厂商无耻。
至于剩下的,我觉得没啥问题。厂商要是有这精力,可劲儿去优化,可劲儿刷分吧,一台机子别说两次重测了,就是二十次,我觉得也挺好。
我买了机子,用著用著,相机表现还变好了,这有啥问题呢?
优化的钱又不要咱出。
最后,Mate30 Pro 5G是值得购买的产品:
华为 HUAWEI Mate 30 Pro 5G 麒麟990京东¥ 6899.00去购买?CC9 Pro也是:
小米CC9 Pro 1亿像素 五摄四闪京东¥ 3099.00去购买?推荐阅读: