天天看點

Redis 多級緩存架構和資料庫與緩存雙寫不一緻問題

  采用三級緩存:nginx本地緩存+redis分布式緩存+tomcat堆緩存的多級緩存架構

時效性要求非常高的資料:庫存

一般來說,顯示的庫存,都是時效性要求會相對高一些,因為随着商品的不斷的交易,庫存會不斷的變化

時效性要求不高的資料:商品的基本資訊(名稱、顔色、版本、規格參數,等等)

商品價格/庫存等時效性要求高的資料,而且種類較少,采取相關的服務系統每次發生了變更的時候,直接采取資料庫和redis緩存雙寫的方案,這樣緩存的時效性最高

商品基本資訊等時效性不高的資料,而且種類繁多,來自多種不同的系統,采取MQ異步通知的方式,寫一個資料生産服務,監聽MQ消息,然後異步拉取服務的資料,更新tomcat jvm緩存+redis緩存

nginx+lua腳本做頁面動态生成的工作,每次請求過來,優先從nginx本地緩存中提取各種資料,結合頁面模闆,生成需要的頁面

如果nginx本地緩存過期了,那麼就從nginx到redis中去拉取資料,更新到nginx本地

如果redis中也被LRU算法清理掉了,那麼就從nginx走http接口到後端的服務中拉取資料,資料生産服務中,現在本地tomcat裡的jvm堆緩存中找,ehcache,如果也被LRU清理掉了,那麼就重新發送請求到源頭的服務中去拉取資料,然後再次更新tomcat堆記憶體緩存+redis緩存,并傳回資料給nginx,nginx緩存到本地

2、多級緩存架構中每一層的意義

nginx本地緩存,抗的是熱資料的高并發通路,一般來說,商品的購買總是有熱點的,比如每天購買iphone、nike、海爾等知名品牌的東西的人,總是比較多的

這些熱資料,利用nginx本地緩存,由于經常被通路,是以可以被鎖定在nginx的本地緩存内

大量的熱資料的通路,就是經常會通路的那些資料,就會被保留在nginx本地緩存内,那麼對這些熱資料的大量通路,就直接走nginx就可以了

那麼大量的通路,直接就可以走到nginx就行了,不需要走後續的各種網絡開銷了

redis分布式大規模緩存,抗的是很高的離散通路,支撐海量的資料,高并發的通路,高可用的服務

redis緩存最大量的資料,最完整的資料和緩存,1T+資料; 支撐高并發的通路,QPS最高到幾十萬; 可用性,非常好,提供非常穩定的服務

nginx本地記憶體有限,也就能cache住部分熱資料,除了各種iphone、nike等熱資料,其他相對不那麼熱的資料,可能流量會經常走到redis那裡

利用redis cluster的多master寫入,橫向擴容,1T+以上海量資料支援,幾十萬的讀寫QPS,99.99%高可用性,那麼就可以抗住大量的離散通路請求

tomcat jvm堆記憶體緩存,主要是抗redis大規模災難的,如果redis出現了大規模的當機,導緻nginx大量流量直接湧入資料生産服務,那麼最後的tomcat堆記憶體緩存至少可以再抗一下,不至于讓資料庫直接裸奔

同時tomcat jvm堆記憶體緩存,也可以抗住redis沒有cache住的最後那少量的部分緩存

redis架構,在我們的真正類似商品詳情頁讀高并發的系統中,redis就是底層的緩存存儲的支援

Redis 多級緩存架構和資料庫與緩存雙寫不一緻問題

 最經典的緩存+資料庫讀寫的模式,cache aside pattern

1、Cache Aside Pattern

(1)讀的時候,先讀緩存,緩存沒有的話,那麼就讀資料庫,然後取出資料後放入緩存,同時傳回響應

(2)更新的時候,先删除緩存,然後再更新資料庫

Redis 多級緩存架構和資料庫與緩存雙寫不一緻問題

2、為什麼是删除緩存,而不是更新緩存呢?

很多時候,複雜點的緩存的場景,因為緩存有的時候,不簡單是資料庫中直接取出來的值

商品詳情頁的系統,修改庫存,隻是修改了某個表的某些字段,但是要真正把這個影響的最終的庫存計算出來,可能還需要從其他表查詢一些資料,然後進行一些複雜的運算,才能最終計算出

現在最新的庫存是多少,然後才能将庫存更新到緩存中去

比如可能更新了某個表的一個字段,然後其對應的緩存,是需要查詢另外兩個表的資料,并進行運算,才能計算出緩存最新的值的

更新緩存的代價是很高的

是不是說,每次修改資料庫的時候,都一定要将其對應的緩存去跟新一份?也許有的場景是這樣的,但是對于比較複雜的緩存資料計算的場景,就不是這樣了

如果你頻繁修改一個緩存涉及的多個表,那麼這個緩存會被頻繁的更新,頻繁的更新緩存

舉個例子,一個緩存涉及的表的字段,在1分鐘内就修改了20次,或者是100次,那麼緩存跟新20次,100次; 但是這個緩存在1分鐘内就被讀取了1次,有大量的冷資料

28法則,黃金法則,20%的資料,占用了80%的通路量

實際上,如果你隻是删除緩存的話,那麼1分鐘内,這個緩存不過就重新計算一次而已,開銷大幅度降低

每次資料過來,就隻是删除緩存,然後修改資料庫,如果這個緩存,在1分鐘内隻是被通路了1次,那麼隻有那1次,緩存是要被重新計算的,用緩存才去算緩存

其實删除緩存,而不是更新緩存,就是一個lazy計算的思想,不要每次都重新做複雜的計算,不管它會不會用到,而是讓它到需要被使用的時候再重新計算

mybatis,hibernate,懶加載,思想

查詢一個部門,部門帶了一個員工的list,沒有必要說每次查詢部門,都裡面的1000個員工的資料也同時查出來啊

80%的情況,查這個部門,就隻是要通路這個部門的資訊就可以了

先查部門,同時要通路裡面的員工,那麼這個時候隻有在你要通路裡面的員工的時候,才會去資料庫裡面查詢1000個員工

實時性比較高的資料緩存,選擇的就是庫存的服務

庫存可能會修改,每次修改都要去更新這個緩存資料; 每次庫存的資料,在緩存中一旦過期,或者是被清理掉了,前端的nginx服務都會發送請求給庫存服務,去擷取相應的資料

庫存這一塊,寫資料庫的時候,直接更新redis緩存

其實就涉及到了一個問題,資料庫與緩存雙寫,資料不一緻的問題

資料庫與緩存雙寫不一緻,很常見的問題,大型的緩存架構中,第一個解決方案

1、最初級的緩存不一緻問題以及解決方案

問題:先修改資料庫,再删除緩存,如果删除緩存失敗了,那麼會導緻資料庫中是新資料,緩存中是舊資料,資料出現不一緻

解決思路

先删除緩存,再修改資料庫,如果删除緩存成功了,如果修改資料庫失敗了,那麼資料庫中是舊資料,緩存中是空的,那麼資料不會不一緻

因為讀的時候緩存沒有,則讀資料庫中舊資料,然後更新到緩存中

Redis 多級緩存架構和資料庫與緩存雙寫不一緻問題

2、比較複雜的資料不一緻問題分析

資料發生了變更,先删除了緩存,然後要去修改資料庫,此時還沒修改

一個請求過來,去讀緩存,發現緩存空了,去查詢資料庫,查到了修改前的舊資料,放到了緩存中

資料變更的程式完成了資料庫的修改

Redis 多級緩存架構和資料庫與緩存雙寫不一緻問題

3、為什麼上億流量高并發場景下,緩存會出現這個問題?

隻有在對一個資料在并發的進行讀寫的時候,才可能會出現這種問題

其實如果說你的并發量很低的話,特别是讀并發很低,每天通路量就1萬次,那麼很少的情況下,會出現剛才描述的那種不一緻的場景

但是問題是,如果每天的是上億的流量,每秒并發讀是幾萬,每秒隻要有資料更新的請求,就可能會出現上述的資料庫+緩存不一緻的情況

高并發了以後,問題是很多的

4、資料庫與緩存更新與讀取操作進行異步串行化

更新資料的時候,根據資料的唯一辨別,将操作路由之後,發送到一個jvm内部的隊列中

讀取資料的時候,如果發現資料不在緩存中,那麼将重新讀取資料+更新緩存的操作,根據唯一辨別路由之後,也發送同一個jvm内部的隊列中

一個隊列對應一個工作線程

每個工作線程串行拿到對應的操作,然後一條一條的執行

這樣的話,一個資料變更的操作,先執行,删除緩存,然後再去更新資料庫,但是還沒完成更新

此時如果一個讀請求過來,讀到了空的緩存,那麼可以先将緩存更新的請求發送到隊列中,此時會在隊列中積壓,然後同步等待緩存更新完成

這裡有一個優化點,一個隊列中,其實多個更新緩存請求串在一起是沒意義的,是以可以做過濾,如果發現隊列中已經有一個更新緩存的請求了,那麼就不用再放個更新請求操作進去了,直接等待前面的更新操作請求完成即可

待那個隊列對應的工作線程完成了上一個操作的資料庫的修改之後,才會去執行下一個操作,也就是緩存更新的操作,此時會從資料庫中讀取最新的值,然後寫入緩存中

如果請求還在等待時間範圍内,不斷輪詢發現可以取到值了,那麼就直接傳回; 如果請求等待的時間超過一定時長,那麼這一次直接從資料庫中讀取目前的舊值

Redis 多級緩存架構和資料庫與緩存雙寫不一緻問題

5、高并發的場景下,該解決方案要注意的問題

(1)讀請求長時阻塞

由于讀請求進行了非常輕度的異步化,是以一定要注意讀逾時的問題,每個讀請求必須在逾時時間範圍内傳回

該解決方案,最大的風險點在于說,可能資料更新很頻繁,導緻隊列中積壓了大量更新操作在裡面,然後讀請求會發生大量的逾時,最後導緻大量的請求直接走資料庫

另外一點,因為一個隊列中,可能會積壓針對多個資料項的更新操作,是以需要根據自己的業務情況進行測試,可能需要部署多個服務,每個服務分攤一些資料的更新操作

如果一個記憶體隊列裡居然會擠壓100個商品的庫存修改操作,每隔庫存修改操作要耗費10ms區完成,那麼最後一個商品的讀請求,可能等待10 * 100 = 1000ms = 1s後,才能得到資料

這個時候就導緻讀請求的長時阻塞

一定要做根據實際業務系統的運作情況,去進行一些壓力測試,和模拟線上環境,去看看最繁忙的時候,記憶體隊列可能會擠壓多少更新操作,可能會導緻最後一個更新操作對應的讀請求,會hang多少時間,如果讀請求在200ms傳回,如果你計算過後,哪怕是最繁忙的時候,積壓10個更新操作,最多等待200ms,那還可以的

如果一個記憶體隊列可能積壓的更新操作特别多,那麼你就要加機器,讓每個機器上部署的服務執行個體處理更少的資料,那麼每個記憶體隊列中積壓的更新操作就會越少

其實根據之前的項目經驗,一般來說資料的寫頻率是很低的,是以實際上正常來說,在隊列中積壓的更新操作應該是很少的

針對讀高并發,讀緩存架構的項目,一般寫請求相對讀來說,是非常非常少的,每秒的QPS能到幾百就不錯了

一秒,500的寫操作,5份,每200ms,就100個寫操作

單機器,20個記憶體隊列,每個記憶體隊列,可能就積壓5個寫操作,每個寫操作性能測試後,一般在20ms左右就完成

那麼針對每個記憶體隊列中的資料的讀請求,也就最多hang一會兒,200ms以内肯定能傳回了

寫QPS擴大10倍,但是經過剛才的測算,就知道,單機支撐寫QPS幾百沒問題,那麼就擴容機器,擴容10倍的機器,10台機器,每個機器20個隊列,200個隊列

大部分的情況下,應該是這樣的,大量的讀請求過來,都是直接走緩存取到資料的

少量情況下,可能遇到讀跟資料更新沖突的情況,如上所述,那麼此時更新操作如果先入隊列,之後可能會瞬間來了對這個資料大量的讀請求,但是因為做了去重的優化,是以也就一個更新緩存的操作跟在它後面

等資料更新完了,讀請求觸發的緩存更新操作也完成,然後臨時等待的讀請求全部可以讀到緩存中的資料

(2)讀請求并發量過高

這裡還必須做好壓力測試,確定恰巧碰上上述情況的時候,還有一個風險,就是突然間大量讀請求會在幾十毫秒的延時hang在服務上,看服務能不能抗的住,需要多少機器才能抗住最大的極限情況的峰值

但是因為并不是所有的資料都在同一時間更新,緩存也不會同一時間失效,是以每次可能也就是少數資料的緩存失效了,然後那些資料對應的讀請求過來,并發量應該也不會特别大

按1:99的比例計算讀和寫的請求,每秒5萬的讀QPS,可能隻有500次更新操作

如果一秒有500的寫QPS,那麼要測算好,可能寫操作影響的資料有500條,這500條資料在緩存中失效後,可能導緻多少讀請求,發送讀請求到庫存服務來,要求更新緩存

一般來說,1:1,1:2,1:3,每秒鐘有1000個讀請求,會hang在庫存服務上,每個讀請求最多hang多少時間,200ms就會傳回

在同一時間最多hang住的可能也就是單機200個讀請求,同時hang住

單機hang200個讀請求,還是ok的

1:20,每秒更新500條資料,這500秒資料對應的讀請求,會有20 * 500 = 1萬

1萬個讀請求全部hang在庫存服務上,就死定了

(3)多服務執行個體部署的請求路由

可能這個服務部署了多個執行個體,那麼必須保證說,執行資料更新操作,以及執行緩存更新操作的請求,都通過nginx伺服器路由到相同的服務執行個體上

(4)熱點商品的路由問題,導緻請求的傾斜

萬一某個商品的讀寫請求特别高,全部打到相同的機器的相同的隊列裡面去了,可能造成某台機器的壓力過大

就是說,因為隻有在商品資料更新的時候才會清空緩存,然後才會導緻讀寫并發,是以更新頻率不是太高的話,這個問題的影響并不是特别大

但是的确可能某些機器的負載會高一些

安裝mysql:

先用yum安裝mysql server

yum install -y mysql-server

service mysqld start
chkconfig mysqld on

yum install -y mysql-connector-java