【前言】

我們以 Java Web 爲例,來搭建一個簡單的電商系統,看看這個系統可以如何一步步演變。

該系統具備的功能:

  • 用戶模塊:用戶註冊和管理
  • 商品模塊:商品展示和管理
  • 交易模塊:創建交易和管理


【正文】

階段一、單機構建網站

網站的初期,我們經常會在單機上跑我們所有的程序和軟件。此時我們使用一個容器,如Tomcat、Jetty、Jboss,然後直接使用JSP/Servlet技術,或者使用一些開源的框架如Maven + Spring + Struts + Hibernate、Maven + Spring + Spring MVC + Mybatis。最後再選擇一個數據庫管理系統來存儲數據,如MySQL、SqlServer、Oracle,然後通過JDBC進行數據庫的連接和操作。

把以上的所有軟件包括數據庫、應用程序都裝載同一臺機器上,應用跑起來了,也算是一個小系統了。此時系統結果如下:

大型分佈式Web系統的架構演進

階段二、應用服務器與數據庫分離

隨着網站的上線,訪問量逐步上升,服務器的負載慢慢提高,在服務器還沒有超載的時候,我們應該就要做好準備,提升網站的負載能力。假如我們代碼層面已難以優化,在不提高單臺機器的性能的情況下,採用增加機器是一個不錯的方式,不僅可以有效地提高系統的負載能力,而且性價比高。

增加的機器用來做什麼呢?此時我們可以把數據庫服務器Web服務器拆分開來,這樣不僅提高了單臺機器的負載能力,也提高了容災能力。

應用服務器與數據庫分開後的架構如下圖所示:

大型分佈式Web系統的架構演進

階段三、應用服務器集羣

隨着訪問量繼續增加,單臺應用服務器已經無法滿足需求了。在假設數據庫服務器沒有壓力的情況下,我們可以把應用服務器從一臺變成了兩臺甚至多臺,把用戶的請求分散到不同的服務器中,從而提高負載能力。而多臺應用服務器之間沒有直接的交互,他們都是依賴數據庫各自對外提供服務。著名的做故障切換的軟件有KeepAlived,KeepAlived是一個類似於Layer3、4、7交換機制的軟件,他不是某個具體軟件故障切換的專屬品,而是可以適用於各種軟件的一款產品。KeepAlived配合上ipvsadm又可以做負載均衡,可謂是神器。

我們以增加了一臺應用服務器爲例,增加後的系統結構圖如下:

大型分佈式Web系統的架構演進

系統演變到這裏,將會出現下面四個問題

1. 用戶的請求由誰來轉發到到具體的應用服務器?

2. 有那些轉發的算法和策略可以使用?

3. 應用服務器如何返回用戶的請求?

4. 用戶如果每次訪問到的服務器不一樣,那麼如何維護session的一致性?

針對以上問題,常用的解決方案如下:

1、負載均衡的問題

一般以下有5種解決方案:

1. HTTP重定向

HTTP重定向就是應用層的請求轉發。用戶的請求其實已經到了HTTP重定向負載均衡服務器,服務器根據算法要求用戶重定向,用戶收到重定向請求後,再次請求真正的集羣

  • 優點:簡單易用;
  • 缺點:性能較差。

2. DNS域名解析負載均衡

DNS域名解析負載均衡就是在用戶請求DNS服務器,獲取域名對應的IP地址時,DNS服務器直接給出負載均衡後的服務器IP。

  • 優點:交給DNS,不用我們去維護負載均衡服務器;
  • 缺點:當一個應用服務器掛了,不能及時通知DNS,而且DNS負載均衡的控制權在域名服務商那裏,網站無法做更多的改善和更強大的管理。

3. 反向代理服務器

在用戶的請求到達反向代理服務器時(已經到達網站機房),由反向代理服務器根據算法轉發到具體的服務器。常用的Apache,Nginx都可以充當反向代理服務器。

  • 優點:部署簡單;
  • 缺點:代理服務器可能成爲性能的瓶頸,特別是一次上傳大文件。

4. IP層負載均衡

在請求到達負載均衡器後,負載均衡器通過修改請求的目的IP地址,從而實現請求的轉發,做到負載均衡。

  • 優點:性能更好;
  • 缺點:負載均衡器的寬帶成爲瓶頸。

5. 數據鏈路層負載均衡

在請求到達負載均衡器後,負載均衡器通過修改請求的MAC地址,從而做到負載均衡,與IP負載均衡不一樣的是,當請求訪問完服務器之後,直接返回客戶。而無需再經過負載均衡器。

2、集羣調度轉發算法

1. rr輪詢調度算法

顧名思義,輪詢分發請求。

  • 優點:實現簡單
  • 缺點:不考慮每臺服務器的處理能力

2. wrr加權調度算法

我們給每個服務器設置權值Weight,負載均衡調度器根據權值調度服務器,服務器被調用的次數跟權值成正比。

  • 優點:考慮了服務器處理能力的不同

3. sh原地址散列算法

提取用戶IP,根據散列函數得出一個key,再根據靜態映射表,查處對應的value,即目標服務器IP。過目標機器超負荷,則返回空。

  • 優點:實現同一個用戶訪問同一個服務器。

4. dh目標地址散列算法

原理同上,只是現在提取的是目標地址的IP來做哈希。

  • 優點:實現同一個用戶訪問同一個服務器。

5. lc最少連接算法

優先把請求轉發給連接數少的服務器。

  • 優點:使得集羣中各個服務器的負載更加均勻。

6. wlc加權最少連接算法

在lc的基礎上,爲每臺服務器加上權值。算法爲:(活動連接數 * 256 + 非活動連接數) ÷ 權重,計算出來的值小的服務器優先被選擇。

  • 優點:可以根據服務器的能力分配請求。

7. sed最短期望延遲算法

其實sed跟wlc類似,區別是不考慮非活動連接數。算法爲:(活動連接數 +1 ) * 256 ÷ 權重,同樣計算出來的值小的服務器優先被選擇。

8. nq永不排隊算法

改進的sed算法。我們想一下什麼情況下才能“永不排隊”,那就是服務器的連接數爲0的時候,那麼假如有服務器連接數爲0,均衡器直接把請求轉發給它,無需經過sed的計算。

9. LBLC基於局部性最少連接算法

負載均衡器根據請求的目的IP地址,找出該IP地址最近被使用的服務器,把請求轉發之。若該服務器超載,最採用最少連接數算法。

10. LBLCR帶複製的基於局部性最少連接算法

負載均衡器根據請求的目的IP地址,找出該IP地址最近使用的“服務器組”,注意,並不是具體某個服務器,然後採用最少連接數從該組中挑出具體的某臺服務器出來,把請求轉發之。若該服務器超載,那麼根據最少連接數算法,在集羣的非本服務器組的服務器中,找出一臺服務器出來,加入本服務器組,然後把請求轉發。

3、集羣請求返回模式問題

1. NAT

負載均衡器接收用戶的請求,轉發給具體服務器,服務器處理完請求返回給均衡器,均衡器再重新返回給用戶。

2. DR

負載均衡器接收用戶的請求,轉發給具體服務器,服務器出來玩請求後直接返回給用戶。需要系統支持IP Tunneling協議,難以跨平臺。

3. TUN

同上,但無需IP Tunneling協議,跨平臺性好,大部分系統都可以支持。

4、集羣Session一致性問題

1. Session Sticky

Session sticky就是把同一個用戶在某一個會話中的請求,都分配到固定的某一臺服務器中,這樣我們就不需要解決跨服務器的session問題了,常見的算法有ip_hash算法,即上面提到的兩種散列算法。

  • 優點:實現簡單;
  • 缺點:應用服務器重啓則session消失。

2. Session Replication

Session replication就是在集羣中複製session,使得每個服務器都保存有全部用戶的session數據。

  • 優點:減輕負載均衡服務器的壓力,不需要要實現ip_hasp算法來轉發請求;
  • 缺點:複製時網絡帶寬開銷大,訪問量大的話Session佔用內存大且浪費。

3. Session數據集中存儲

Session數據集中存儲就是利用數據庫來存儲session數據,實現了session和應用服務器的解耦。

  • 優點:相比Session replication的方案,集羣間對於寬帶和內存的壓力大幅減少;
  • 缺點:需要維護存儲Session的數據庫。

4. Cookie Base

Cookie base就是把Session存在Cookie中,由瀏覽器來告訴應用服務器我的session是什麼,同樣實現了session和應用服務器的解耦。

  • 優點:實現簡單,基本免維護。
  • 缺點:cookie長度限制,安全性低,帶寬消耗。

值得一提的是:

  • Nginx目前支持的負載均衡算法有wrr、sh(支持一致性哈希)、fair(lc)。但Nginx作爲均衡器的話,還可以一同作爲靜態資源服務器。
  • Keepalived + ipvsadm比較強大,目前支持的算法有:rr、wrr、lc、wlc、lblc、sh、dh
  • Keepalived支持集羣模式有:NAT、DR、TUN
  • Nginx本身並沒有提供session同步的解決方案,而Apache則提供了session共享的支持。

解決了以上的問題之後,系統的結構如下:

大型分佈式Web系統的架構演進

階段四、數據庫讀寫分離化

上面我們總是假設數據庫負載正常,但隨着訪問量的的提高,數據庫的負載也在慢慢增大。那麼可能有人馬上就想到跟應用服務器一樣,把數據庫一份爲二再負載均衡即可。

但對於數據庫來說,並沒有那麼簡單。假如我們簡單的把數據庫一分爲二,然後對於數據庫的請求,分別負載到A機器和B機器,那麼顯而易見會造成兩臺數據庫數據不統一的問題。那麼對於這種情況,我們可以先考慮使用讀寫分離主從複製的方式。

讀寫分離後的系統結構如下:

大型分佈式Web系統的架構演進

這個結構變化後也會帶來兩個問題:

  • 主從數據庫之間數據同步問題。
  • 應用對於數據源的選擇問題。

解決方案:

  • 使用MySQL自帶的Master + Slave的方式實現主從複製
  • 採用第三方數據庫中間件,例如MyCat。MyCat是從Cobar發展而來的,而Cobar是阿里開源的數據庫中間件,後來停止開發。MyCat是國內比較好的MySql開源數據庫分庫分表中間件。

階段五、用搜索引擎緩解讀庫的壓力

數據庫做讀庫的話,常常對模糊查找力不從心,即使做了讀寫分離,這個問題還未能解決。以我們所舉的交易網站爲例,發佈的商品存儲在數據庫中,用戶最常使用的功能就是查找商品,尤其是根據商品的標題來查找對應的商品。對於這種需求,一般我們都是通過like功能來實現的,但是這種方式的代價非常大,而且結果非常不準確。此時我們可以使用搜索引擎倒排索引來完成。

搜索引擎具有的優點:它能夠大大提高查詢速度和搜索準確性。

引入搜索引擎的開銷

  • 帶來大量的維護工作,我們需要自己實現索引的構建過程,設計全量/增加的構建方式來應對非實時與實時的查詢需求。
  • 需要維護搜索引擎集羣

搜索引擎並不能替代數據庫,它解決了某些場景下的精準、快速、高效的“讀”操作,是否引入搜索引擎,需要綜合考慮整個系統的需求。

引入搜索引擎後的系統結構如下:

大型分佈式Web系統的架構演進

階段六、用緩存緩解讀庫的壓力

常用的緩存機制包括頁面級緩存、應用數據緩存和數據庫緩存。

應用層和數據庫層的緩存

隨着訪問量的增加,逐漸出現了許多用戶訪問同一部分熱門內容的情況,對於這些比較熱門的內容,沒必要每次都從數據庫讀取。我們可以使用緩存技術,例如可以使用Google的開源緩存技術Guava或者使用Memecahed作爲應用層的緩存,也可以使用Redis作爲數據庫層的緩存。

另外,在某些場景下,關係型數據庫並不是很適合,例如我想做一個“每日輸入密碼錯誤次數限制”的功能,思路大概是在用戶登錄時,如果登錄錯誤,則記錄下該用戶的IP和錯誤次數,那麼這個數據要放在哪裏呢?假如放在內存中,那麼顯然會佔用太大的內容;假如放在關係型數據庫中,那麼既要建立數據庫表,還要簡歷對應的Java bean,還要寫SQL等等。而分析一下我們要存儲的數據,無非就是類似{ip:errorNumber}這樣的key:value數據。對於這種數據,我們可以用NOSQL數據庫來代替傳統的關係型數據庫。

頁面緩存

除了數據緩存,還有頁面緩存。比如使用HTML5的localstroage或者Cookie。除了頁面緩存帶來的性能提升外,對於併發訪問且頁面置換頻率小的頁面,應儘量使用頁面靜態化技術。

  • 優點:減輕數據庫的壓力, 大幅度提高訪問速度;
  • 缺點:需要維護緩存服務器,提高了編碼的複雜性。

值得一提的是:

緩存集羣的調度算法不同與上面提到的應用服務器和數據庫。最好採用一致性哈希算,這樣才能提高命中率

加入緩存後的系統結構如下:

大型分佈式Web系統的架構演進

階段七、數據庫水平拆分與垂直拆分

我們的網站演進到現在,交易、商品、用戶的數據都還在同一個數據庫中。儘管採取了增加緩存讀寫分離的方式,但隨着數據庫的壓力繼續增加,數據庫數據量的瓶頸越來越突出,此時,我們可以有數據垂直拆分水平拆分兩種選擇。

數據垂直拆分

垂直拆分的意思是把數據庫中不同的業務數據拆分到不同的數據庫中,結合現在的例子,就是把交易、商品、用戶的數據分開。

優點:

  • 解決了原來把所有業務放在一個數據庫中的壓力問題;
  • 可以根據業務的特點進行更多的優化。

缺點:

  • 需要維護多個數據庫的狀態一致性和數據同步。

問題:

  • 需要考慮原來跨業務的事務;
  • 跨數據庫的Join。

解決問題方案:

  • 應該在應用層儘量避免跨數據庫的分佈式事務,如果非要跨數據庫,儘量在代碼中控制。
  • 通過第三方中間件來解決,如上面提到的MyCat,MyCat提供了豐富的跨庫Join方案,詳情可參考MyCat官方文檔。

數據垂直拆分後的結構如下:

大型分佈式Web系統的架構演進

數據水平拆分

數據水平拆分就是把同一個表中的數據拆分到兩個甚至多個數據庫中。產生數據水平拆分的原因是某個業務的數據量或者更新量到達了單個數據庫的瓶頸,這時就可以把這個表拆分到兩個或更多個數據庫中。

優點:

  • 如果能克服以上問題,那麼我們將能夠很好地對數據量及寫入量增長的情況。

問題:

  • 訪問用戶信息的應用系統需要解決SQL路由的問題,因爲現在用戶信息分在了兩個數據庫中,需要在進行數據操作時瞭解需要操作的數據在哪裏。
  • 主鍵 的處理也變得不同,例如原來自增字段,現在不能簡單地繼續使用。
  • 如果需要分頁查詢,那就更加麻煩。

解決問題方案:

  • 我們還是可以通過可以解決第三方中間件,如MyCat。MyCat可以通過SQL解析模塊對我們的SQL進行解析,再根據我們的配置,把請求轉發到具體的某個數據庫。 我們可以通過UUID保證唯一或自定義ID方案來解決。
  • MyCat也提供了豐富的分頁查詢方案,比如先從每個數據庫做分頁查詢,再合併數據做一次分頁查詢等等。

數據水平拆分後的結構如下:

大型分佈式Web系統的架構演進

階段八、應用的拆分

按微服務拆分應用

隨着業務的發展,業務越來越多,應用越來越大。我們需要考慮如何避免讓應用越來越臃腫。這就需要把應用拆開,從一個應用變爲倆個甚至更多。還是以我們上面的例子,我們可以把用戶、商品、交易拆分開。變成“用戶、商品”和“用戶,交易”兩個子系統。

拆分後的結構:

大型分佈式Web系統的架構演進

問題:

這樣拆分後,可能會有一些相同的代碼,如用戶相關的代碼,商品和交易都需要用戶信息,所以在兩個系統中都保留差不多的操作用戶信息的代碼。如何保證這些代碼可以複用是一個需要解決的問題。

解決問題:

通過走服務化SOA的路線來解決頻繁公共的服務。

走SOA服務化治理道路

爲了解決上面拆分應用後所出現的問題,我們把公共的服務拆分出來,形成一種服務化的模式,簡稱SOA。

採用服務化之後的系統結構:

大型分佈式Web系統的架構演進

優點:

  • 相同的代碼不會散落在不同的應用中了,這些實現放在了各個服務中心,使代碼得到更好的維護。
  • 我們把對數據庫的交互業務放在了各個服務中心,讓前端的Web應用更注重與瀏覽器交互的工作。

問題:

如何進行遠程的服務調用?

解決方法:

可以通過下面的引入消息中間件來解決。

階段九、引入消息中間件

隨着網站的繼續發展,的系統中可能出現不同語言開發的子模塊和部署在不同平臺的子系統。此時我們需要一個平臺來傳遞可靠的,與平臺和語言無關的數據,並且能夠把負載均衡透明化,能在調用過程中收集分析調用數據,推測出網站的訪問增長率等等一系列需求,對於網站應該如何成長做出預測。開源消息中間件有阿里的Dubbo,可以搭配Google開源的分佈式程序協調服務Zookeeper實現服務器的註冊發現

引入消息中間件後的結構:

大型分佈式Web系統的架構演進

總結

以上的演變過程只是一個例子,並不適合所有的網站,實際中網站演進過程與自身業務和不同遇到的問題有密切的關係,沒有固定的模式。只有認真的分析和不斷地探究,才能發現適合自己網站的架構。

出處:https://juejin.im/post/5b4c4e566fb9a04f83464102

相關文章