今天去某电脑网站的硬碟板块,我看见有一个用户留言说:「现在的硬碟企业越来越没有操守,以前的硬碟能顶十年,撑现在三年就死。」

目睹此言我只好无奈的摇摇头。

该用户说错了吗?

好像没有。

该用户说对了吗?

好像也没有!

说了等于没有说。

为什么?

他只从他主观意识上去谈论这个事情,他一个人的情况代表不了所有情况。

其次,产品的选择也是重点,不同的产品在设计寿命上有差异。

再次,产品使用的环境及方式也是关键,再耐用的硬碟也经不住野蛮操作的折磨。

我不想从厂家市场策略方面去无端揣测一些所谓的「内情」。

我只想就事论事去谈一谈现在的硬碟故障到底是怎么回事。


不知道大家有没有留意过一个耐人寻味的现象,企业级硬碟采用的技术往往并不是当下最先进的技术。

比如:WD4000FYYZ这一款比较经典的企业级硬碟。

当时普通硬碟单碟容量都上1TB了,但是这款硬碟还坚持单碟800G的技术来生产。

用户有很大意见:厂家不厚道,花这么多钱买个老技术的硬碟,太亏了。

这不是西数独家的操作,但凡硬碟厂家旗下的企业级硬碟对新技术采用都是非常谨慎。

之前7200.11的教训还历历在目。

如果硬碟在稳定和性能之间做取舍的话,我相信谁都愿意损失那么一丢丢性能换取更大的稳定性。

就好比一栋装修的无比豪华的危房,你愿意进去住吗?

如果你不愿意,那你已经明白我上面说的道理。

企业级硬碟消费的群体,大部分是各大系统商、特殊设备和高要求的个人用户。

企业级硬碟往往担负重要数据的存储任务,一旦有任何闪失可能会造成灾难性后果。

企业级硬碟是硬碟厂家的拳头产品,独立的硬体配备,独立的固件编写,独立的生产品控,独立的产品规格,独立的验收标准。

一切的一切都是围绕稳定性做文章,稳中求快才是产品的立身之本。

所以,大家选购企业级硬碟的时候,不要去纠结是否用的最前沿的技术。最前沿的技术意味著不成熟,一旦掉坑没有任何人会对你数据负责。

也没有任何人能预测将来可能会发生的故障。

技术都是经过时间考验才会成熟。不管工厂如何内部模拟工况,都无法彻底反应实际情况。

因为,7200.11的教训并不久远,步子迈太大总要扯到蛋!


这里我要谈一谈现在的硬碟发生故障到底是什么在作祟。

首先我们排除使用环境和使用习惯的影响,从硬碟本质上去探索发生故障的根源。

为什么以前的老硬碟质量很好,现在的硬碟越来越不经用了。

我个人的看法——高密度惹的祸。

硬碟从纵向磁记录到垂直磁记录技术,让硬碟的容量突飞猛进的发展从GB发展到TB。

硬碟的原理大家都明白,靠的是磁化翻转记录数据。

硬碟要提高容量就必须要把磁颗粒进一步缩小。

磁性颗粒缩小虽然对密度提升有巨大作用,但是来带的副作用就是磁性保持时间缩短。

本身磁颗粒体积已经是越来越小,颗粒之间的间隔也是越来越小。

我们所处的空间是一个遍布磁场的空间。

外部磁场的侵扰,内部颗粒之间的相互干扰。

磁头频繁的对颗粒进行翻转。

纳米级别的磁性颗粒很容易在短期内失去磁性。

虽然厂家一直在不断寻求更好的磁性材料,但是问题仍然很严峻。

玩过录音机的朋友都知道,一盘磁带反复的写抹几次,基本就是要报废的节奏。

当然硬碟肯定要耐用的多,但是道理是相通的。

局部失磁会造成硬碟出现坏道,坏道越多失磁面积越大(碟片磁头碰撞产生的坏道另当别论)。

如果大面积失磁,尤其是伺服信息丢掉之后,则表现为硬碟出现敲击声音。

很多不明真相的群众第一反应就是磁头坏了。

虽然故障现象一样,但不一定就是磁头的锅。

根据我实际工作的总结,故障硬碟最少有7成是因为碟片失磁导致的故障。

如果你的硬碟某一天突然故障,很大概率是碟片失磁的锅!


话锋转回来,为什么企业级硬碟不会采用当下最高密度技术,就是尽量避免上述的原因。

不管硬碟性能多优秀,一旦丢掉了稳定性那是一款没有任何意义的产品。

需要企业级硬碟的朋友加微信:Barracuda55


推荐阅读:
相关文章