【32期】硬碟损坏的根源居然是——它!
今天去某电脑网站的硬碟板块,我看见有一个用户留言说:「现在的硬碟企业越来越没有操守,以前的硬碟能顶十年,撑现在三年就死。」
目睹此言我只好无奈的摇摇头。
该用户说错了吗?
好像没有。
该用户说对了吗?
好像也没有!
说了等于没有说。
为什么?
他只从他主观意识上去谈论这个事情,他一个人的情况代表不了所有情况。
其次,产品的选择也是重点,不同的产品在设计寿命上有差异。
再次,产品使用的环境及方式也是关键,再耐用的硬碟也经不住野蛮操作的折磨。
我不想从厂家市场策略方面去无端揣测一些所谓的「内情」。
我只想就事论事去谈一谈现在的硬碟故障到底是怎么回事。
不知道大家有没有留意过一个耐人寻味的现象,企业级硬碟采用的技术往往并不是当下最先进的技术。
比如:WD4000FYYZ这一款比较经典的企业级硬碟。
当时普通硬碟单碟容量都上1TB了,但是这款硬碟还坚持单碟800G的技术来生产。
用户有很大意见:厂家不厚道,花这么多钱买个老技术的硬碟,太亏了。
这不是西数独家的操作,但凡硬碟厂家旗下的企业级硬碟对新技术采用都是非常谨慎。
之前7200.11的教训还历历在目。
如果硬碟在稳定和性能之间做取舍的话,我相信谁都愿意损失那么一丢丢性能换取更大的稳定性。
就好比一栋装修的无比豪华的危房,你愿意进去住吗?
如果你不愿意,那你已经明白我上面说的道理。
企业级硬碟消费的群体,大部分是各大系统商、特殊设备和高要求的个人用户。
企业级硬碟往往担负重要数据的存储任务,一旦有任何闪失可能会造成灾难性后果。
企业级硬碟是硬碟厂家的拳头产品,独立的硬体配备,独立的固件编写,独立的生产品控,独立的产品规格,独立的验收标准。
一切的一切都是围绕稳定性做文章,稳中求快才是产品的立身之本。
所以,大家选购企业级硬碟的时候,不要去纠结是否用的最前沿的技术。最前沿的技术意味著不成熟,一旦掉坑没有任何人会对你数据负责。
也没有任何人能预测将来可能会发生的故障。
技术都是经过时间考验才会成熟。不管工厂如何内部模拟工况,都无法彻底反应实际情况。
因为,7200.11的教训并不久远,步子迈太大总要扯到蛋!
这里我要谈一谈现在的硬碟发生故障到底是什么在作祟。
首先我们排除使用环境和使用习惯的影响,从硬碟本质上去探索发生故障的根源。
为什么以前的老硬碟质量很好,现在的硬碟越来越不经用了。
我个人的看法——高密度惹的祸。
硬碟从纵向磁记录到垂直磁记录技术,让硬碟的容量突飞猛进的发展从GB发展到TB。
硬碟的原理大家都明白,靠的是磁化翻转记录数据。
硬碟要提高容量就必须要把磁颗粒进一步缩小。
磁性颗粒缩小虽然对密度提升有巨大作用,但是来带的副作用就是磁性保持时间缩短。
本身磁颗粒体积已经是越来越小,颗粒之间的间隔也是越来越小。
我们所处的空间是一个遍布磁场的空间。
外部磁场的侵扰,内部颗粒之间的相互干扰。
磁头频繁的对颗粒进行翻转。
纳米级别的磁性颗粒很容易在短期内失去磁性。
虽然厂家一直在不断寻求更好的磁性材料,但是问题仍然很严峻。
玩过录音机的朋友都知道,一盘磁带反复的写抹几次,基本就是要报废的节奏。
当然硬碟肯定要耐用的多,但是道理是相通的。
局部失磁会造成硬碟出现坏道,坏道越多失磁面积越大(碟片磁头碰撞产生的坏道另当别论)。
如果大面积失磁,尤其是伺服信息丢掉之后,则表现为硬碟出现敲击声音。
很多不明真相的群众第一反应就是磁头坏了。
虽然故障现象一样,但不一定就是磁头的锅。
根据我实际工作的总结,故障硬碟最少有7成是因为碟片失磁导致的故障。
如果你的硬碟某一天突然故障,很大概率是碟片失磁的锅!
话锋转回来,为什么企业级硬碟不会采用当下最高密度技术,就是尽量避免上述的原因。
不管硬碟性能多优秀,一旦丢掉了稳定性那是一款没有任何意义的产品。
需要企业级硬碟的朋友加微信:Barracuda55
推荐阅读: