天天看點

緩存與資料庫的一緻性緩存模式為什麼是删除緩存,而不是更新緩存最初級的緩存不一緻問題及解決方案比較複雜的資料不一緻問題分析解決方案如下本文小結

本文來說下緩存與資料庫的雙寫一緻性。分布式緩存是現在很多分布式應用中必不可少的元件,但是用到了分布式緩存,就可能會涉及到緩存與資料庫雙存儲雙寫,你隻要是雙寫,就一定會有資料一緻性的問題,那麼你如何解決一緻性問題?

文章目錄

  • 緩存模式
  • 為什麼是删除緩存,而不是更新緩存
  • 最初級的緩存不一緻問題及解決方案
  • 比較複雜的資料不一緻問題分析
  • 解決方案如下
  • 本文小結

緩存模式

最經典的緩存+資料庫讀寫的模式,就是 Cache Aside Pattern。

讀的時候,先讀緩存,緩存沒有的話,就讀資料庫,然後取出資料後放入緩存,同時傳回響應。

更新的時候,先更新資料庫,然後再删除緩存。

為什麼是删除緩存,而不是更新緩存

原因很簡單,很多時候,在複雜點的緩存場景,緩存不單單是資料庫中直接取出來的值。

比如可能更新了某個表的一個字段,然後其對應的緩存,是需要查詢另外兩個表的資料并進行運算,才能計算出緩存最新的值的。

另外更新緩存的代價有時候是很高的。是不是說,每次修改資料庫的時候,都一定要将其對應的緩存更新一份?也許有的場景是這樣,但是對于比較複雜的緩存資料計算的場景,就不是這樣了。如果你頻繁修改一個緩存涉及的多個表,緩存也頻繁更新。但是問題在于,這個緩存到底會不會被頻繁通路到?

舉個栗子,一個緩存涉及的表的字段,在 1 分鐘内就修改了 20 次,或者是 100 次,那麼緩存更新 20 次、100 次;但是這個緩存在 1 分鐘内隻被讀取了 1 次,有大量的冷資料。實際上,如果你隻是删除緩存的話,那麼在 1 分鐘内,這個緩存不過就重新計算一次而已,開銷大幅度降低,用到緩存才去算緩存。

其實删除緩存,而不是更新緩存,就是一個 lazy 計算的思想,不要每次都重新做複雜的計算,不管它會不會用到,而是讓它到需要被使用的時候再重新計算。像 mybatis,hibernate,都有懶加載思想。查詢一個部門,部門帶了一個員工的 list,沒有必要說每次查詢部門,把裡面的1000個員工的資料也同時查出來啊。80% 的情況,查這個部門,就隻是要通路這個部門的資訊就可以了。先查部門,同時要通路裡面的員工,那麼這個時候隻有在你要通路裡面的員工的時候,才會去資料庫裡面查詢1000個員工。

最初級的緩存不一緻問題及解決方案

問題:先修改資料庫,再删除緩存。如果删除緩存失敗了,那麼會導緻資料庫中是新資料,緩存中是舊資料,資料就出現了不一緻。

緩存與資料庫的一緻性緩存模式為什麼是删除緩存,而不是更新緩存最初級的緩存不一緻問題及解決方案比較複雜的資料不一緻問題分析解決方案如下本文小結

解決思路:先删除緩存,再修改資料庫。如果資料庫修改失敗了,那麼資料庫中是舊資料,緩存中是空的,那麼資料不會不一緻。因為讀的時候緩存沒有,則讀資料庫中舊資料,然後更新到緩存中。

比較複雜的資料不一緻問題分析

資料發生了變更,先删除了緩存,然後要去修改資料庫,此時還沒修改。一個請求過來,去讀緩存,發現緩存空了,去查詢資料庫,查到了修改前的舊資料,放到了緩存中。随後資料變更的程式完成了資料庫的修改。

完了,資料庫和緩存中的資料不一樣了。。。

為什麼上億流量高并發場景下,緩存會出現這個問題?

隻有在對一個資料在并發的進行讀寫的時候,才可能會出現這種問題。其實如果說你的并發量很低的話,特别是讀并發很低,每天通路量就 1 萬次,那麼很少的情況下,會出現剛才描述的那種不一緻的場景。但是問題是,如果每天的是上億的流量,每秒并發讀是幾萬,每秒隻要有資料更新的請求,就可能會出現上述的資料庫+緩存不一緻的情況。

解決方案如下

更新資料的時候,根據資料的唯一辨別,将操作路由之後,發送到一個 jvm 内部隊列中。讀取資料的時候,如果發現資料不在緩存中,那麼将重新讀取資料+更新緩存的操作,根據唯一辨別路由之後,也發送同一個 jvm 内部隊列中。

一個隊列對應一個工作線程,每個工作線程串行拿到對應的操作,然後一條一條的執行。這樣的話,一個資料變更的操作,先删除緩存,然後再去更新資料庫,但是還沒完成更新。此時如果一個讀請求過來,讀到了空的緩存,那麼可以先将緩存更新的請求發送到隊列中,此時會在隊列中積壓,然後同步等待緩存更新完成。

這裡有一個優化點,一個隊列中,其實多個更新緩存請求串在一起是沒意義的,是以可以做過濾,如果發現隊列中已經有一個更新緩存的請求了,那麼就不用再放個更新請求操作進去了,直接等待前面的更新操作請求完成即可。

待那個隊列對應的工作線程完成了上一個操作的資料庫的修改之後,才會去執行下一個操作,也就是緩存更新的操作,此時會從資料庫中讀取最新的值,然後寫入緩存中。

如果請求還在等待時間範圍内,不斷輪詢發現可以取到值了,那麼就直接傳回;如果請求等待的時間超過一定時長,那麼這一次直接從資料庫中讀取目前的舊值。

高并發的場景下,該解決方案要注意的問題:

讀請求長時阻塞

由于讀請求進行了非常輕度的異步化,是以一定要注意讀逾時的問題,每個讀請求必須在逾時時間範圍内傳回。

該解決方案,最大的風險點在于說,可能資料更新很頻繁,導緻隊列中積壓了大量更新操作在裡面,然後讀請求會發生大量的逾時,最後導緻大量的請求直接走資料庫。務必通過一些模拟真實的測試,看看更新資料的頻率是怎樣的。

另外一點,因為一個隊列中,可能會積壓針對多個資料項的更新操作,是以需要根據自己的業務情況進行測試,可能需要部署多個服務,每個服務分攤一些資料的更新操作。如果一個記憶體隊列裡居然會擠壓 100 個商品的庫存修改操作,每隔庫存修改操作要耗費 10ms 去完成,那麼最後一個商品的讀請求,可能等待 10 * 100 = 1000ms = 1s 後,才能得到資料,這個時候就導緻讀請求的長時阻塞。

一定要做根據實際業務系統的運作情況,去進行一些壓力測試,和模拟線上環境,去看看最繁忙的時候,記憶體隊列可能會擠壓多少更新操作,可能會導緻最後一個更新操作對應的讀請求,會 hang 多少時間,如果讀請求在 200ms 傳回,如果你計算過後,哪怕是最繁忙的時候,積壓 10 個更新操作,最多等待 200ms,那還可以的。

如果一個記憶體隊列中可能積壓的更新操作特别多,那麼你就要加機器,讓每個機器上部署的服務執行個體處理更少的資料,那麼每個記憶體隊列中積壓的更新操作就會越少。

其實根據之前的項目經驗,一般來說,資料的寫頻率是很低的,是以實際上正常來說,在隊列中積壓的更新操作應該是很少的。像這種針對讀高并發、讀緩存架構的項目,一般來說寫請求是非常少的,每秒的 QPS 能到幾百就不錯了。

實際粗略測算一下

如果一秒有 500 的寫操作,如果分成 5 個時間片,每 200ms 就 100 個寫操作,放到 20 個記憶體隊列中,每個記憶體隊列,可能就積壓 5 個寫操作。每個寫操作性能測試後,一般是在 20ms 左右就完成,那麼針對每個記憶體隊列的資料的讀請求,也就最多 hang 一會兒,200ms 以内肯定能傳回了。

經過剛才簡單的測算,我們知道,單機支撐的寫 QPS 在幾百是沒問題的,如果寫 QPS 擴大了 10 倍,那麼就擴容機器,擴容 10 倍的機器,每個機器 20 個隊列。

讀請求并發量過高

這裡還必須做好壓力測試,確定恰巧碰上上述情況的時候,還有一個風險,就是突然間大量讀請求會在幾十毫秒的延時 hang 在服務上,看服務能不能扛的住,需要多少機器才能扛住最大的極限情況的峰值。

但是因為并不是所有的資料都在同一時間更新,緩存也不會同一時間失效,是以每次可能也就是少數資料的緩存失效了,然後那些資料對應的讀請求過來,并發量應該也不會特别大。

多服務執行個體部署的請求路由

可能這個服務部署了多個執行個體,那麼必須保證說,執行資料更新操作,以及執行緩存更新操作的請求,都通過 Nginx 伺服器路由到相同的服務執行個體上。

比如說,對同一個商品的讀寫請求,全部路由到同一台機器上。可以自己去做服務間的按照某個請求參數的 hash 路由,也可以用 Nginx 的 hash 路由功能等等。

熱點商品的路由問題,導緻請求的傾斜

萬一某個商品的讀寫請求特别高,全部打到相同的機器的相同的隊列裡面去了,可能會造成某台機器的壓力過大。就是說,因為隻有在商品資料更新的時候才會清空緩存,然後才會導緻讀寫并發,是以其實要根據業務系統去看,如果更新頻率不是太高的話,這個問題的影響并不是特别大,但是的确可能某些機器的負載會高一些。

本文小結

本文詳細介紹了緩存與資料的雙寫一緻性問題以及常見的解決方案。

繼續閱讀