天天看點

淘寶萬億級海量交易訂單存儲在哪?

01淘寶交易訂單系統介紹

天貓和淘寶每天發生的實物和虛拟商品的交易達到億級别。考慮到一次成功交易的整個鍊路,會涉及到會員資訊驗證,商品庫資訊查詢,訂單建立,庫存扣減,優惠扣減,訂單支付,物流資訊更新,确認支付等。

鍊路中的每一環都涉及到資料庫中記錄的建立和狀态的更新,一次成功的交易可能對應到背景資訊系統上數百次資料庫事務操作,支撐交易系統的整個資料庫叢集則會承擔每日高達數百億的事務讀寫。這除了給資料庫系統帶來巨大的性能挑戰之外,每日遞增的海量資料也帶來巨大的存儲成本壓力。

交易訂單作為其中最為關鍵的資訊,由于可能涉及交易糾紛處理,需要随時提供使用者查詢,必須永久的記錄在資料庫中。淘寶成立至今近17年,所有與訂單相關的資料庫記錄總量達到了萬億級别,其所占用的磁盤空間也早已超過PB級。

在一個這樣大體量的資料集上,需要能夠滿足使用者随時查詢的低延時需求,同時需要達到極低的存儲成本,在技術上是一個非常大的挑戰。

淘寶萬億級海量交易訂單存儲在哪?

使用者的曆史訂單記錄資料量巨大且不能丢失

02淘寶交易訂單庫的架構演進曆史

淘寶從2003年成立至今近17年的時間,随着流量不斷上漲,交易訂單資料庫的架構也經曆過數次演進。

淘寶萬億級海量交易訂單存儲在哪?

第一階段,開始由于流量較小,使用了一套Oracle資料存儲了所有的訂單資訊,新訂單建立和曆史訂單查詢都在同一套資料庫進行。

第二階段,由于曆史訂單量資料量越來越大,單一一套庫已經不能滿足同時滿足性能和容量的問題,于是對交易訂單庫進行了拆分,單獨建立了一個Oracle曆史庫,将三個月以前的訂單遷移進曆史庫,同時由于資料量巨大,查詢性能不能滿足需求,是以當時的曆史訂單不提供查詢功能。使用者隻能查詢三個月之内的訂單資訊。

第三個階段,為了解決擴充性和存儲成本問題,交易曆史庫整體遷移到了HBase方案,這套方案在當時很好了解決了存儲成本和業務查詢需求這2個訴求。整體方案是使用主表結合索引表,查詢訂單詳細資訊通過主表完成,通過買家或者賣家ID查詢訂單,則需要借助索引表先得到訂單号。

但這個方案遺留一個問題:訂單并不是嚴格按照90天進行遷移的,有很多類型的訂單并不遷移到曆史庫,導緻已買到--訂單清單的排序是亂序的,已買到的訂單清單不是嚴格按照時間由近到遠排序的,使用者如果按照訂單清單一頁一頁往下翻,會發現自己最近的訂單”突然丢了”(實際上沒有丢的,隻是亂序了,再往後翻就有了)。

第四個階段,曆史庫采用基于X-Engine引擎的PolarDB-X叢集,在滿足存儲成本的同僚,提供與線上庫一樣的索引能力,解決亂序問題。

03淘寶交易訂單庫的業務痛點

回顧淘寶交易庫的演進曆史,自拆分出獨立的交易曆史庫之後,在持續十年時間裡,業務團隊和資料庫團隊一直在應對幾個核心的挑戰:

  • 存儲成本,每日寫入量巨大且資料永不删除,必須要保證極低的成本。
  • 節省存儲成本的前提下,保證豐富的查詢特性,例如按時間次元排序等。是以底層資料庫需要支援二級索引,且二級索引需要保證一緻性和性能。
  • 保證較低的查詢延時,不影響使用者使用體驗。雖然90天前的曆史訂單的查詢量比90天内要少很多,但這依然是直接面對使用者的,需要保證長尾延時在一定限度内。

在2018年,因為資料庫存儲的原因導緻的訂單排序錯亂的問題,受到越來越多的投訴,給使用者帶來非常大的困擾,業務上決定根治這個問題。從前面的分析總結看,理想中的交易曆史庫方案需要同時滿足三個條件: 低成本,低延時,特性豐富。使用和線上庫一樣的InnoDB引擎則滿足不了存儲成本的要求,而使用HBase則滿足不了一緻性二級索引等要求。

04基于X-Engine引擎的曆史庫方案

2018年,阿裡自研的X-Engine引擎逐漸在集團内部落地,其針對阿裡巴巴交易業務的流水型特征設計了原生的冷熱分離的架構,X-Engine引擎中的冷資料記錄在資料頁中緊湊排列并預設對所有資料塊進行壓縮,這套架構兼顧了性能和成本,很快在内部非常多的業務中落地,例如:X-Engine如何支撐釘釘資料量激增。

在考察交易曆史庫的方案時,一個思路是合并線上庫和曆史庫,依賴X-Engine自身的冷熱分離能力, 實作對90天内交易訂單的高性能通路和90天以前交易訂單記錄的低成本存儲。同時一套統一的交易訂單庫,可以提供諸如二級索引等功能,使用者訂單不能按時間排序的問題也随之解決,業務層的代碼将非常簡單。

但交易訂單系統在線上庫/曆史庫分離的架構下疊代了十年的時間,很多業務系統的代碼對這套分離架構做了相容,考慮到對業務代碼改造以及遷移的風險,我們在初期繼承了之前線上和曆史分離的架構。隻是将原有的HBase叢集替換成了PolarDB-X叢集(基于X-Engine引擎的版本):

  • 線上庫依然沿用之前的MySQL InnoDB叢集,但是隻儲存90天的資料量,90天之前的訂單會被删除,資料量少,可以保證較高的緩存命中率,確定讀寫延時。
  • 通過資料同步将線上庫中超過90天的訂單遷移到曆史庫中,遷移之後該部分訂單從線上庫删除。
  • 曆史庫切換為X-Engine,儲存全量的交易訂單資料,90之前的訂單讀寫,直接操作曆史庫, 同時曆史庫承接線上庫的所有遷移寫入負載。
淘寶萬億級海量交易訂單存儲在哪?

這套架構上線之後,交易曆史庫的存儲成本相比較于使用HBase沒有上升,同時由于曆史庫和線上庫能力相同,可以建立完全一樣的索引,曆史訂單恢複了對訂單按時間排序功能的支援,同時其讀取延時也得到了保證。

05資料庫架構參考

在淘寶交易曆史庫的方案中,考慮到業務層面曆史代碼架構的延續性,采用了InnoDB引擎線上庫和X-Engine曆史庫分離的方案。在這套架構中,X-Engine曆史庫其實同時承擔了線上庫遷移過來的寫入以及90天以前記錄的讀寫流量。

實際上,考慮到淘寶交易訂單記錄流水型的通路特征(最近寫入的記錄會被大量通路,随着時間推移,記錄通路頻次急劇衰減),X-Engine引擎内部的冷熱分離機制就能很好的處理這種流水型業務,是以單一X-Engine資料庫叢集完全解決需求。

對于新開業務或者有大量流水型記錄存儲需求的現有業務且業務層面還未做冷熱分離,我們建議直接使用一套X-Engine引擎,在存儲成本降低的同時,DB層的通路代碼會更簡單。基于X-Engine引擎的PolarDB-X分布式資料庫可以同時解決scale out問題和成本問題。

目前X-Engine引擎已經上線阿裡雲, 經過阿裡内部業務驗證,歡迎有成本和性能需求的使用者購買使用。詳情點選

「閱讀原文」