现在人们都很多东西都存在网上,并且都希望这些数据都永久保存,这样的话我们需要的伺服器只会越来越多,这么下去地球会不会逐渐被伺服器占满了?以后还能有地方放这些伺服器吗?如果没有的话人们怎么办?另外我上网搜了却没搜到相关内容,难道人们真的对这种事情没有兴趣吗?我觉得挺重要的。


B,KB、MB、GB、TB、PB、EB、ZB、YB、BB

依次每一个单位之间的差距是2的10次方倍 也就是1024倍

预计2020年全球总数据量为40ZB

换算成TB是2^30TB 约为10亿TB

目前商用数据密度较高的存储介质是固态硬碟/u盘

咱们看一下2T的存储大概有多重

2T=24g,那么就很好算出

2^30/2*24/1000/1000=12884(吨)

10000多吨还是很小的。一栋楼就存下了

那么目前存储密度最高的存储介质有多高呢?

1克可以存储455EB的数据。

换算一下 也就是说 2020年的全世界数据量可以存在一个拳头大小的存储介质里。

这个存储介质就是DNA,目前读写的成本太高,还在研究阶段,但是未来很可能商用。

所以以后看见有人把手指插到另一个人的鼻孔里,请不要诧异,他可能只是在考数据。

而且目前存储技术还有很大的提升空间,现阶段完全没必要担心数据存储的问题。

但是

这些数据绝大部分都是热数据和温数据

什么是热数据?

就是不断交互的数据,比如交易数据,浏览记录,游戏动作数据等等。

什么是温数据?

温数据是非即时的状态和行为数据,比如用户信息,知乎上的问题和答案等数据。

那肯定也有冷数据了。

冷数据就是很久都用不到一次的这种数据,比如医疗档案,银行凭证啥的。

那么问题来了,这些数据的交互计算和传输,是需要计算资源的,计算才是占资源的大头啊。

而承载这些存储、计算、传输的地方叫做数据中心,啥是数据中心我的这篇回答里有介绍。

假如有人把支付宝所有存储伺服器炸了(物理炸),大众在支付宝里的钱是不是就都没有了呢??

www.zhihu.com图标

而你们不知道的是,数据中心用电占全球用电量的3%(2017年数据)。

估计现在的全球用电量的4%-5%了,而这个比例还在上升。

一提到算力很多人都想到,摩尔定律。

当价格不变时,集成电路上可容纳的元器件的数目,约每隔18-24个月便会增加一倍,性能也将提升一倍。

但是很不幸的是,摩尔定律失效很久了。

因为他碰到了量子隧道效应。

具体的我就不在这赘述了,简单说明一下原理。

cpu的算力的根本是cpu内的晶体管数量,而相同体积下想容纳更多的晶体管,那么就要把晶体管做到更小,那么这个极限是7纳米。

一旦小于7纳米,就会产生量子隧道效应,也就是晶体管之间会互相干扰,cpu就不能用了。

那么在算力无法提升的情况下,我们唯一的办法就是堆量。

目前全世界的数据中心占地面积(我自己估算的)大概在10亿平方米左右。

换算成平方公里大约为1000平方公里,目前暂时还不用担心放不下的问题。

而且数据中心 还能放在海底,还能放在山洞里,沙漠里。

但是

全球数据中心电力市场每年增长超过11%

而全球每年的电力生产增长仅为2.9%

照这个情况发展,35年后 数据中心用电会占全球用电的50%以上。

45年后全球电力生产不够数据中心用的。

(当然经济因素肯定会制衡数据中心的发展,以上算的是无约束的增长情况)

现实中也是这样,数据中心建设立项中最难拿下来的就是能源指标了。

所以题主完全不用担心伺服器没地方放,你应该担心伺服器没有足够电力供给啊。

………………………………分割线……………………………………

手打干货不易,还望赏个赞

能点个关注就更好了

@净整些没用的


为什么你会觉得你希望数据永久保留,互联网公司就真的会为您永久保留呢?

如果一个公司觉得你产生的数据价值太低(甚至高毫无价值),低到为其存储带来的开销都是不值得的话:

  1. 你要么需要为您的存储付费,例如 QQ 这类云同步最近 x 个月的聊天记录需要开 x 级别的会员。
  2. 跟百度贴吧一样,毫无顾虑的清空某一时刻前的所有数据。

更不要提如果产品或者干脆整个公司都要死掉的情况。能给你时间自行迁移数据就不错了,人家还为您继续存储?

这种例子实在太多太多了。

也就是说,永久存储什么的,当然是想太多啦。只是通常大部分公司的数据量还没有达到令他们为存储开销为难的地步,因为网路宽频和计算资源带来的开销明显更大。

当他们开始为难想在存储上节省成本的时候,就会收费或选择不再永久存储。

你可以去找找,有哪个互联网公司的产品协议有担保过你的数据他们会免费永久保留的?


至于有没有真正企图「永久存储」的例子?

还是有的。前不久 GitHub 宣布将会把数据备份到南极,可存储到千年后的未来。但是,这种方式存下来的数据跟线上再无瓜葛,属于比冷备份更冷的备份。


你猜现在存1TB数据需要的地方大,还是50年前存放1KB需要的地方大?


数据本身是一种带保质期的资产。

当存储这项资产的成本超过了资产本身,企业就会出清这些资产,在常见的场景下,可能就是程序员的一行rm 命令。

如果资产都是有价值的,那么就会促进数据中心的大发展。

事实上,国内的数据中心已经具有相当的规模,贵州省甚至把这块当成拉动经济发展的引擎之一。


以目前消费机机械硬碟的存储密度来说 平均一个人的体积等同于可以存储 200TB 的内容。企业级的可以达到1000TB, 而10年前有一种说法 80TB 的大小足以存储下一个人的一生。而10年前的机械硬碟存储密度只有现在的1/5 随著制造工艺越来越高 存储密度还会上升 。而且 微软 亚马逊 已经把数据中心 放在太平洋海底了。容量问题相对没有那么紧迫 更紧迫的是电力的消耗。


推荐阅读:
相关文章