数据安全,让数据更接近用户,提供一个全球性的社区性web服务需要在全球建多个数据中心,不知道大公司(google,facebook等)如果在多个数据中心间做到准实时的同步的,另外数据中心内部的负载分担,也是一个开发的问题。

数据同步更有各种情况,如需要实时同步以解决用户连接速度问题,有何方法?


通过数据分发系统完成的。

前提是带宽要足够大,几十G的数据一两秒内就能分发完成。


这个需求本身并不明确,实际上数据离用户更近,提高访问速度等,主要是依赖于CDN来实现,而不会在全球各地的数据中心中放同样的数据。多数据中心同步通常是为了异地容灾的考虑,通常两个或三个数据中心同步就足够了,在多个数据中心之间的连接出现问题的时候,通常会放弃强一致性的完全同步,而保证可用性。但对于元数据的同步,可能会有完全同步的这种需求,这方面可以参考google的spanner的实现,不过论文其实没有讲完全清楚,据我所知也没有其他公司有类似的基础架构。


单纯讨论实时数据同步没有什么意义,要看具体应用的特点是什么,实时性的要求如何。 数据传输及容错本身并不难做,困难的是如何令跨IDC传输的数据量最小化。

最简单的方式就是按照地理位置来进行用户数据存储。

需要同步的数据相对来说是少量,肯定不可能全球范围内同步,这延时都是杠杠的。


一个Web服务做应用级容灾完全没有必要,互联网企业也架设不起啊。电信和金融的核心IT系统才会考虑较高级别的容灾。


需要高度可靠的网路.和各种数据的非同步,同步方案.我不认为提供一个全球性的社区需要在全球建多个数据中心. 保证各个数据中心物理距离足够远即可. google也出事故,完全自动切换,其实很难做到,许多应用的数据安全应该说优于其可用性的.


推荐阅读:
相关文章