各位好。今天我们要谈的是机械硬碟的问题。首先我们谈谈机械硬碟的原理吧。(大佬可以直接略掉)

人类发明了电子计算机之后提出了对数据储存的需求——毕竟不能每次输入指令都靠纸带吧

大量重复繁琐的指令和运算结果的记录都对存储提出了相对来说较高的要求。当时磁储存是相对来说比较高级的储存技术。毕竟靠继电器的开关储存数据太昂贵也太占空间。当然它的改良版使用晶体管NAND作为储存介质衍生出来的固态硬碟如今又重新回到了人们的视野,但是在那个年代,显然的用磁碟作为储存介质是非常先进的。

值得注意的是,那个年代的磁储存可能和我们想像中的完全不一样。最早并没有什么磁碟,而是磁鼓,它长这样:

磁鼓是利用铝鼓筒表面涂覆的磁性材料来存储数据的。鼓筒旋转速度很高,因此存取速度快。

后来有了磁带,这个各位都熟。

记录的方式也非常简单粗暴,音乐的话就使用模拟信号记录,扬声器怎么振动磁头就往磁带里注入相同的磁场,这样磁带被磁化后就能简单的记录声音了。至于储存程序那就更加简单,因为是记录数字信号,所以只需要用声音信号的有无代表010101……就行了。这里其实磁带播放出来的声音就毫无意义了。因为磁带记录的信息并不是声音。

到了后来,发明了磁碟之后,才算是真正的步入了现代。

计算机的外部存储器中也采用了类似磁带的装置,比较常用的一种叫磁碟,将圆形的磁性碟片装在一个方的密封盒子里,这样做的目的是为了防止磁碟表面划伤,导致数据丢失。

磁碟分为软盘和硬碟,分别对应需要移动的低容量数据储存需求和高容量的固定储存需要。在没有U盘和USB的日子里软盘作为数据的载体一直担负著移动数据的责任。而硬碟就基本作为计算机的「内部」储存被固定在机箱中了。当然后来还有移动硬碟就是另一回事了。但是这种命名习惯给后来的手机市场带来了困扰,后来不得已使用了运存这个概念来区分手机的「内存」和真正的内存。 注意无论软盘还是硬碟它们的速度都很慢,在电脑系统中的身份是外存。相比之下,基于DRAM的内存是非常快的,它使用电容进行储存,需要时时进行高速刷新,同时断电数据就会丢失,所以很长时间以来一直用于连接CPU和相对来说慢得多外存起到一个中间载体的作用。直到最近RAMDISK的兴起导致厂商对断电不丢数据的RAM感了兴趣之后,RAM才作为长期储存载体出现。

顺便说下,不要太过相信英特尔的加速盘技术……用高速储存介质加速低速介质本身就和电动车装电容一样没什么大用,最后主输出不还是看电瓶。 硬碟也是一个道理,有那个钱不如上点高转速硬碟实在。

有意思的是硬碟如果拆出来的话盘面可以当镜子照 因为硬碟是由一个或者多个铝制或者玻璃制的碟片组成。碟片外覆盖有铁磁性材料嘛。接下来继续讲这个硬碟的储存技术:

巨磁阻效应(Giant Magnetoresistance,缩写:GMR)是一种量子力学和凝聚体物理学现象,磁阻效应的一种,可以在磁性材料和非磁性材料相间的薄膜层(几个纳米厚)结构中观察到。2007年诺贝尔物理学奖被授予发现巨磁阻效应(GMR)的彼得·格林贝格和艾尔伯·费尔。 这种结构物质的电阻值与铁磁性材料薄膜层的磁化方向有关,两层磁性材料磁化方向相反情况下的电阻值,明显大于磁化方向相同时的电阻值,电阻在很弱的外加磁场下具有很大的变化量。巨磁阻效应被成功地运用在硬碟生产上,具有重要的商业应用价值。

巨磁阻效应在高密度读出磁头、磁存储元件上有著广泛的应用。随著技术的发展,当存储数据的磁区越来越小,存储数据密度越来越大,这对读写磁头提出更高的要求。巨磁阻物质中电流的增大与减小,可以定义为逻辑信号的0与1,进而实现对磁性存储装置的读取。巨磁阻物质可以将用磁性方法存储的数据,以不同大小的电流输出,并且即使磁场很小,也能输出足够的电流变化,以便识别数据,从而大幅度提高了数据存储的密度。

然而,先进的技术在应用的时候势必存在难度,往往映射在实际上就是缺陷。我们知道固态硬碟分为SLC MLC TLC QLC,它们分别让一个晶体管单元可以记录的数据量为2 4 8 16,大幅度提高了信息的储存密度,同时也靠降低寿命、可靠性和速度为代价。

越往后寿命越短,速度越慢。但是在同样的成本下的储存空间大。机械硬碟其实也存在这样的问题,我们接下来就要分析这个问题所在。

大容量机械硬碟为什么容易翻车?

我们知道,随著市场需求的不断提升,硬体也一直在升级。但是从提升幅度来看,我们如今的电脑无论是CPU运算速度,还是显卡处理能力,内存的速度和容量都在不停的升级,但是硬碟的升级速度却显然的可以说是落后于整体速度的。这样对于数据储存的庞大需求对于硬碟厂商来说绝对是巨大的压力。要知道,直到今天,很多资料库单纯的对于储存数据仍然还在使用磁带,这显然给了硬碟的生产厂商来了一巴掌。

所以硬碟厂商一看这不行,得立马提升硬碟的容量。提升机械硬碟的容量,无非就那么几个办法,要么就想办法缩小磁头增加磁轨。磁轨也称磁碟道,在磁碟的盘面上,所有数据信息都记录在许多以主轴为中心的同心圆上,每一个这样的同心圆称为一条磁轨。磁碟上的磁轨越多,磁碟所能记录的信息也就更多。我刚才可能没讲过这个问题,其实以前的1.44M软盘就可以通过电脑安装程序对软碟机输入指令,强制缩小磁轨间隙增加密度,这样一个1.44M的软盘也可以大概达到2-3M的水平。以前的DVD国产之前国内也有人靠同样的技术增加VCD的储存空间做出来的当时叫SVCD和DVCD,有兴趣的可以百度。(建议能不用百度就不要百度,必应都比百度强 有条件上谷歌)

但是这种方法终将存在一个极限,如果磁轨已经没法再小了咋办?那就只能简单粗暴的在一个硬碟里面装2个以上多个碟片了。但是各位学机械也一定明白一个原理,就是结构越复杂越精密的东西越容易出现故障。所以很长时间以来学机械设计也应该明白以简洁为美的道理。例如两冲程发动机就是比四冲程的零件少,所以从故障的角度来说概率也小。没有高速链,没有大飞轮,没有气门,但是给油之后加速就是快,难怪不少小型飞机和大型船舶如今还在用二冲程的设计了。简单粗暴往往才是最美的。

所以如果各点阵图吧图钉要捡垃圾,一定要看准了硬碟是不是单碟的。一般来说单碟的都要比双碟的要贵。

还有一个技术叫PMR的简单说一下,以前的硬碟磁介质记录信息是如图上方这样的:

看起来储存密度不是很大。因为磁场的方向是水平的。如果使用垂直磁场磁化磁介质的话,相应的就能提升磁碟的储存密度,数据的量显然也就上升了。

但是这种技术也存在极限,我想想,目前台式机的3.5硬碟能做到单碟1T那样,笔记本2.5也就500G到顶了。

硬碟厂商这下急了,咋整?硬碟的储存空间需求还在涨,可是已经没有什么办法提升硬碟的储存容量了。这样下去以后只能考虑在一个硬碟里面大量塞碟片了,可是这样又很容易产生机械故障导致硬碟整个报废……

所以硬碟厂商大力出奇(S)迹(B),采取了一个睿智无比的方案:秘技·反复写入

大数据时代的数据量呈指数级增长,IDC预测2025年全球数据总量会达到163ZB, 存储容量将超过19ZB,其中约58%的容量由HDD硬碟来承载。硬碟驱动器的存储面密度(每单位面积存储的位数)受到物理定律的限制,目前硬碟使用的垂直磁记录(Perpendicular Magnetic Recording,PMR)技术即将达到其存储密度极限。业界迫切希望引入新的技术来克服限制,继续稳步提升容量。

叠瓦式磁记录(Shingled Magnetic Recording)技术应运而生,磁轨像屋顶上的瓦片那样重叠在一起来实现其存储面密度的增长。

这个技术说白了就是允许在硬碟写入的时候强行调整磁轨间距,将过去已经完成写入的磁轨擦掉一些再写入。

这就好比我们现在写字一样,虽然擦掉一部分但是实际上我们还是能看懂的。不信我做个图给你们重新看看就明白了。就像这样。但是显然的写字一张纸写完就拉倒了。但是SMR硬碟在进行再写入的时候麻烦就大大的有了。用笔写字我们还好说,毕竟一行字比笔尖大很多。但是硬碟我们更应该理解成画线,用非常粗的马克笔在本子上画点画线表达信息,然后SMR就像是用修正带盖上线的一半之后再覆盖画写。显然的如果画错了再改或者画完了发现前面有问题再想修改难度非常高,所以一般SMR。可是硬碟我们还是要重复使用的啊,尤其是作为计算机的主硬碟,计算机在工作的时候一定要反复进行读写,擦掉硬碟上原有的文件再写入简直就是家常便饭。所以SMR盘是不能用作系统盘的。

SMR这个技术蛮坑的。虽然使用巨磁电阻效应玩得6一个原来只能1T的硬碟现在能6T8T12T了

读取还好,和以前PMR相比没啥变化;

写入的时候就坑爹了:磁头会连带临近磁轨的数据一起擦除掉,而且好像还是多米诺骨牌式的一环扣一环,所以需要多次回写……这样一来,性能、噪音、发热和可靠性都是可想而知了吧。

所以目前来看最新出厂的机械硬碟单盘2TB以上而且还带上百兆大缓存的盘一看就不能买了……除非能确定它没使用这种技术,还是靠老技术硬塞好几个碟片进去的话,才建议各位可以考虑入手。但是相比一个硬碟塞好几个碟片,干嘛不买总容量相同的几个单碟硬碟呢?至少单碟盘的故障率还是很低的,而且就算炸盘也不会全盘皆炸,就拿2T来说,4个500G同时炸的概率显然基本可以忽略,但是一个2T炸的概率相对来说就很大了,尤其是多盘硬碟。SMR废物盘就更不要说了。毕竟市场价来看2T硬碟的价格远远小于2个1T硬碟的总和本来就是反常的,1T硬碟可比2个500G加起来还贵得多呢。看价格就能想像得到其中又多少猫腻了。

至于官方质保,它并不包括数据恢复。不管怎样,自己多备份几份肯定更好。(网盘、各种盘 、U盘、每台电脑上都备份好重要信息,特别重要信息还可以刻光碟)

还有目前的各种缓存加速,比如傲腾、SSHD等,个人不看好,因为缓存的加速原理是把经常访问的热数据放到读写相对极快的快闪记忆体/DRAM中,从而避免执行慢吞吞的读盘/写盘操作;而缓存容量是极其有限的,如果热数据撑爆了缓存/大量写入数据,SMR的掉速问题就会暴露无遗;而且缓存也会让系统变得更复杂,所以暗藏bug的概率也会变大。

说到硬碟的分容……同样物理大小同样技术同样工艺的硬碟能分出来2T 6T 8T 10T 12T你不感觉到奇怪吗?我们以前说CPU的分型就是一条流水线上生产出来的CPU由于品质不同(或是市场需求)被分为不同型号的CPU,比如光是图拉丁奔腾3就有1.0 1.13 1.2G 1.33这样的区别,更别提之后五花八门的CPU型号了 什么买windows平板经常需要纠结的凌动Z8300 8500 8700 捡100或是200块钱笔记本的时候的酷睿2 P8400 8600 8700 8800 L9300 9600 U9300之类的……更别提还有AMD X2 经典的5000+,双核开四核之后乌鸦变凤凰,就是因为它是四核品质不佳屏蔽了两个核心充双核的。后来到了AM3平台了又分X2 240 245 250,直到280都有 主频依次提升 性能自然也就高 但是X2型号再高X4的四核U依然能吊打 这就是不同流水线的产品 同样流水线同样生产出来的CPU根据品质就分出来了型号。高型号的就卖高价钱,默认主频就高一些。低型号的虽然也能通过超频达到同样的主频,但是发热就是比高型号的要大。在同样的条件下生产出来的CPU如此,硬碟更是如此。同样的工艺下又不是多碟,那12T的肯定就是比8T品质高。硬碟在出厂的时候磁碟本身肯定有瑕疵。为了正常使用,厂家会在测试完成后对瑕疵所在的磁轨进行屏蔽。这样硬碟磁头在读写过程中就会避开瑕疵处。同样的道理,屏蔽的瑕疵越多硬碟的容量就越小。以前的硬碟也是一样。1T是后话, 硬碟的500G 320G 250G 160G 120G也都是一样的道理。 它们之间的主控板甚至在损坏之后都能拆下来互换。那么在购买硬碟的时候当我们有得选的时候当然还是要选瑕疵少的。

相比之下,磁带其实对于仓库式储存的性能还是相当不错的……只需要保护好磁带本身,维持一个适当的环境,没事再转转带,磁带的寿命也是相当长的。相比光碟来说磁带无论成本还是储存密度都是非常优秀的。就是机器实在太贵

当然,面对实际数据仓储需求的时候,显然的目前来看选择500G的机械硬碟显然是最明智的选择。目前台式机单碟机械硬碟7200转的已经55包邮了,硬碟只要没说有一般都是包无坏道的。至于比两个500G都贵的1T暂且也就不要上了除非它降价 我也不信谁家能有1个T还没法分段的信息需要储存。硬碟有价数据无价,我其实今天说这些主要还是想建议图吧的各位尽可能采取相应比较便宜可靠的硬碟组RAID的这种方案,毕竟硬碟这种东西如果买硬碟厂商为了强行提升容量采取了不可靠技术的垃圾货还不如捡垃圾去买旧的但是相对便宜可靠的产品比较靠谱。等日后SSD各方面完全碾压机械硬碟的时候以后装机也好数据储存也好直接用固态也未尝不可。目前这个时候来看,仓库储存也好还是日常储存需求也好还是选用老硬碟比较实在。

当然如果看到本文的各位之中已经有人不幸翻车的话还是那句话,买了就要好好用。能退赶紧退。

不能退也不要懊恼或者无能狂怒,更不要去碰瓷卖家,人家卖家也只是按规矩做生意罢了,错不在卖家在厂家。还是那句话,一分钱一分货,厂家的锅不要找店家撒气,做人,捡垃圾最重要。如果买东西没有眼光的话,那也一定捡不好垃圾。只有技术实力达到顶峰的人,才能成为图吧垃圾王。

靠捡垃圾维持生活


推荐阅读:
相关文章