1、背景

知乎從問答起步,已逐步成長為一個大規模的綜合性知識內容平台,截止目前,用戶數突破 2.2 億,有超過 3000 萬的問題被提出,並獲得超過 1.3 億個回答。同時,知乎內還沉澱了數量眾多的優質文章、電子書以及其它付費內容。

因此,在鏈接人與知識的路徑中,知乎存在著大量的推薦場景。粗略統計,目前除了首頁推薦之外,我們已存在著 20 多種推薦場景;並且在業務快速發展中,不斷有新的推薦業務需求加入。在這個背景之下,構建一個較通用的且便於業務接入的推薦系統就變成不得不做的事了。

在講通用架構的設計之前,我們一起回顧一下推薦系統的總體流程和架構。通常,因為模型所需特徵及排序的性能考慮,我們通常將簡單的推薦系統分為召回層和 ranking 層,召回層主要負責從候選集合中粗排選擇待排序集合,之後獲取 ranking 特徵,經過排序模型,挑選出推薦結果給用戶。

簡單推薦模型適合一些推薦結果要求單一,只對單目標負責的推薦場景,比如新聞詳情頁推薦、文章推薦等等。但在現實中,作為通用的推薦系統來說,其需要考慮用戶的多維度需求,比如用戶的多樣性需求、時效性需求、結果的滿足性需求等。因此就需要在推薦過程中採用多個不同隊列,針對不同需求進行排序,之後通過多隊列融合策略,從而滿足用戶不同的需求。

從我們知乎來說,也大體是這樣一個發展路線,比如今年的7月份時,因為一些業務快速發展且架構上相對獨立的歷史原因,我們的推薦系統存在多套,並且架構相對簡單。以其中一個推薦架構設計相對完善的系統為例,其總體架構是這樣的。可以看出,這個架構已經包含了召回層和 ranking 層,並且還考慮了二次排序。

那麼存在哪些問題呢?

首先,對多路召回支持不友好。現有架構的召回是耦合在一起的,因此開發調研成本高,多路召回接入相對困難

然後,召回階段只使用 Redis 作為召回基礎。Redis 有很多優點,比如查詢效率高,服務較穩定。但將其作為所有召回層的基礎,就放大了其缺點,第一不支持稍複雜的召回邏輯,第二無法進行大量結果的召回計算,第三不支持 embedding 的召回。

第三點,總體架構在實現時,架構邏輯剝離不夠乾淨,使得架構抽樣邏輯較弱,各種通用特徵和通用監控建設都較困難。

第四點,我們知道,在推薦系統中,特徵日誌的建設是非常重要的一個環節,它是推薦效果好壞的重要基礎之一。但現有推薦系統框架中,特徵日誌建設缺乏統一的校驗和落地方案,各業務『各顯神通』。

第五點,當前系統是不支持多隊列融合的,這就嚴重限制了通用架構的可擴展性和易用性。

因此,我們就準備重構知乎的通用推薦服務框架。

2、重構之路

2.1、在重構前的考慮

第一,語言的選擇。早期知乎大量的服務都是基於 Python 開發的,但在實踐過程中發現 Python 資源消耗過大、不利用多人協同開發等各種問題,之後公司進行了大規模的重構,現在知乎在語言層面的技術選型上比較開放,目前公司內部已有 Python、Scala、Java、Golang 等多種開發語言項目。那麼對於推薦系統服務來說,由於其重計算,多並發的特點,語言的選擇還是需要考慮的。

第二,架構上的考慮,要解決支持多隊列混排和支持多路召回的問題,並且其設計最好是支持可插拔的。

第三,召回層上,除了傳統的 Redis 的 KV 召回(部分 CF 召回,熱門召回等等應用場景),我們還需要考慮一些其他索引資料庫,以便支持更多索引類型。

首先我們先看語言上的選擇,先總體上比較一下各種語言的特點,我們簡單從如下幾個方面進行比較。

從性能上,依照公開的 benchmark,Golang 和 Java、Scala 大概在一個量級,是 Python 的 30 倍左右。其次 Golang 的編譯速度較快,這點相對於 java、scala 具有比較明顯的優勢,再次其語言特性決定了Golang 的開發效率較高,此外因為缺乏 trycatch 機制,使得使用 Golang 開發時對異常處理思考較多,因此其上線之後維護成本相對較低。但 Golang 有個明顯缺陷就是目前第三方庫較少,特別跟 AI 相關的庫。

那麼基於以上優缺點,我們重構為什麼選擇 Golang ?

1、Golang 天然的優勢,支持高並發並且佔用資源相對較少。這個優勢恰恰是推薦系統所需要的,推薦系統存在大量需要高並發的場景,比如多路召回,特徵計算等等。

2、知乎內部基礎組件的 Golang 版生態比較完善。目前我們知乎內部對於 Golang 的使用越來越積極,大量基礎組件都已經 Golang 化,包括基礎監控組件等等,這也是我們選擇 Golang 的重要原因。

但我需要強調一點,語言的選擇不是只有唯一答案的,這是跟公司技術和業務場景結合的選擇。

講完語言上的選擇,那麼為了在重構時支持多隊列混排和支持多路召回,我們架構上是如何來解決的?

這點在設計模式比較常見,就是『抽象工廠模式』:首先我們構建隊列註冊管理器,將回調註冊一個 map 中,並將當前服務所有隊列做成 json 配置的可自由插拔的模式,比如如下配置,指定一個服務所需要的全部隊列,存入 queues 欄位中,

通過 name 來從註冊管理器的 map 中調取相應的隊列服務,

之後呢我們就可以並發進行多隊列的處理。

對於多路召回,及整個推薦具體流程的可插拔,與上面處理手法類似,比如如下隊列

我們可以指定所需召回源,指定 merger 策略等等,當某個過程不需處理,會按自動默認步驟處理,這樣在具體 queue 的實現中就可以通過如下簡單操作進行自由配置。

我們講完了架構上一些思考點和具體架構實現方案,下面就是關於召回層具體技術選型問題。我們先回顧一下,在常用的推薦召回源中,有基於 topic ( tag )的召回、實體的召回、地域的召回、CF(協同過濾)的召回以及 NN 產生的 embedding 召回等等。那麼為了能夠支持這些召回,技術上我們應該如何來實現呢。我們先從使用角度看一下常用的 NoSQL 資料庫產品,Redis 是典型的 k-v 存儲,其簡單、並且高性能使得其在業內得到大量使用,但不支持複雜查詢的問題也讓 Redis 在召回複雜場景下並不佔優,因此一般主要適用於 kv 類的召回,比如熱門召回,地域召回,少量的 CF 召回等等。而 HBase 作為海量數據的列式存儲資料庫,有一個明顯缺點就是複雜查詢性能差,因此一般適合數據查詢量大,但查詢簡單的場景,比如推薦系統當中的已讀已推等等場景。而 ES 其實已經不算是一個資料庫了,而是一個通用搜索引擎範疇,其最大優點就是支持複雜聚合查詢,因此將其用戶通用基礎檢索,是一個相對適合的選擇。

我們上面介紹了通用召回的技術選型,那麼 embedding 召回如何來處理呢,我們的方案是基於 Facebook 開源的 faiss 封裝,構建一個通用 ANN(近似最近鄰)檢索服務。faiss 是為稠密向量提供高效相似度搜索和聚類的框架。其具有如下特性:1、提供了多種 embedding 召回方法;2、檢索速度快,我們基於 python 介面封裝,影響時間在幾 ms - 20 ms 之間;3、c++ 實現,並且提供了 Python 的封裝調用;4、大部分演算法支持 GPU 實現。

從以上介紹可以看出,在通用的推薦場景中,我們召回層大體是基於 ES + Redis + ANN 的模式進行構建。ES 主要支持相對複雜的召回邏輯,比如基於多種 topic 的混合召回;Redis 主要用於支持熱門召回,以及規模相對較小的 CF 召回等;ANN 主要支持 embedding 召回,包括NN 產出的 embedding 、CF 訓練產出的 embedding 等等。

介紹完以上思考點,我們總體的架構就基本成型了,具體如下圖所示。該框架可以支持多隊列融合,並且每個隊列也支持多路召回,從而對於不同推薦場景能夠較好的支持,另外,我們召回選擇了 ES + Redis + ANN 的技術棧方案,可以較好支持多種不同類型召回,並達到服務線上的最終目的。

2.2、重構遇到的一些問題及解決方案

1、離線任務和模型的管理問題。我們做在線服務的都有體會,我們經常容易對線上業務邏輯代碼更關注一些,而往往忽視離線代碼任務的管理和維護。但離線代碼任務和模型在推薦場景中又至關重要。因此如何有效維護離線代碼和任務,是我們面臨的第一個問題。

2、特徵日誌問題。在推薦系統中,我們常常會遇到特徵拼接和特徵的『時間穿越』的問題。所謂特徵時間穿越,指的是模型訓練時用到了預測時無法獲取的『未來信息』,這主要是訓練label 和特徵拼接時時間上不夠嚴謹導致。如何構建便捷通用的特徵日誌,減少特徵拼接錯誤和特徵穿越,是我們面臨的第二個問題。

3、服務監控問題。一個通用的推薦系統應該在基礎監控上做到儘可能通用可復用,減少具體業務對於監控的開發量,並方便業務定位問題。

離線任務和模型的管理問題

在包括推薦系統的演算法方向中,需要構建大量離線任務支持各種數據計算業務,和模型的定時訓練工作。但實際工作中,我們往往忽略離線任務代碼管理的重要性,當時間一長,各種數據和特徵的質量往往無法保證。為了儘可能解決這樣的問題,我們從三方面來做,第一,將通用推薦系統依賴的離線任務的代碼統一到一處管理;第二,結合公司離線任務管理平台,將所有任務以通用包的形式進行管理,這樣保證所有任務的都是依賴最新包;第三,建設任務結果的監控體系,將離線任務的產出完整監控起來。

特徵日誌問題。

Andrew Ng 之前說過:『挖掘特徵是困難、費時且需要專業知識的事,應用機器學習其實基本上是在做特徵工程。』我們理想中的推薦系統模型應該是有乾淨的 Raw Data,方便處理成可學習的 Dataset,通過某種演算法學習 Model,來達到預測效果不斷優化的目的。

但現實中,我們需要處理各種各樣的數據源,有資料庫的,有日誌的,有離線的,有在線的。這麼多來源的 Raw Data,不可避免的會遇到各種各樣的問題,比如特徵拼接錯誤,特徵『時間穿越』等等。

這裡邊反應的一個本質問題是特徵處理流程的規範性問題。那麼我們是如何來解決這一點呢,首先,我們用在線代替了離線,通過在線落特徵日誌,而不是 Raw Data,並統一了特徵日誌 Proto,如此就可以統一特徵解析腳本。

服務監控問題。

在監控問題上,知乎搭建了基於 StatsD + Grafana + InfluxDB 的監控系統,以支持各種監控日誌的收集存儲及展示。基於這套系統,我們可以便捷的構建自己微服務的各種監控。

我們這裡不過多介紹通用監控系統,主要介紹下,基於推薦系統我們監控建設的做法。首先先回顧一下我們推薦系統的通用設計上,我們採用了『可插拔』的多隊列和多召回的設計,那麼可以在通用架構設計獲取到各種信息,比如業務線名,業務名,隊列名,process 名等等。如此,我們就可以將監控使用如下方式實現,這樣就可以通用化的設計監控,而不需各個推薦業務再過多設計監控及相關報警。

按照如上實現之後,我們推薦系統的監控體系大概是什麼樣子,首先各個業務可以通過 grafana 展示頁面進行設置。我們可以看到各個 flow 的各種數據,以及召回源的比例關係,還有特徵分布,ranking 得分分布等等。

3、未來挑戰

講完了遇到的一些問題之後,我們來看一下未來的挑戰。隨著業務的快速發展,數據和規模還在不斷擴張,架構上還需要不斷迭代;第二點,隨著推薦業務越來越多,策略的通用性和業務之間的隔離如何協調一致;第三點,資源調度和性能開銷也需要不斷優化;最後,多機房之間數據如何保持同步也是需要考慮的問題。

4、總結

最後,我們做個簡單總結。重構語言的選擇,關鍵跟公司技術背景和業務場景結合起來;第二點,架構盡量靈活,並不斷自我迭代;第三點,監控要早點開展,並儘可能底層化、通用化。

團隊介紹

我們是知乎的推薦技術團隊,屬於知乎的技術中台,主要為公司各個業務方提供完整的推薦服務,其中包括問題路由、知乎大學的推薦和搜索、回答推薦、文章推薦、視頻推薦、和知乎個性化 Push 等多個推薦場景。在這裡,我們除了建設通用推薦服務架構之外,還不斷將最新的推薦演算法應用到具體推薦業務中,提升用戶體驗,滿足用戶需求。

推薦閱讀:

相关文章