<dl></dl>
<dt> 一、資料庫瓶頸 </dt>
<dd></dd>
<dt> 1、io瓶頸 </dt>
<dt> 2、cpu瓶頸 </dt>
<dt> 二、分庫分表 </dt>
<dt> 1、水準分庫 </dt>
<dt> 2、水準分表 </dt>
<dt> 3、垂直分庫 </dt>
<dt> 4、垂直分表 </dt>
<dt> 三、分庫分表工具 </dt>
<dt> 四、分庫分表步驟 </dt>
<dt> 五、分庫分表問題 </dt>
<dt> 1、非partition key的查詢問題(水準分庫分表,拆分政策為常用的hash法) </dt>
<dt> 2、非partition key跨庫跨表分頁查詢問題(水準分庫分表,拆分政策為常用的hash法) </dt>
<dt> 3、擴容問題(水準分庫分表,拆分政策為常用的hash法) </dt>
<dt> 六、分庫分表總結 </dt>
<dt> 七、分庫分表示例 </dt>
一、資料庫瓶頸 ↑
不管是io瓶頸,還是cpu瓶頸,最終都會導緻資料庫的活躍連接配接數增加,進而逼近甚至達到資料庫可承載活躍連接配接數的門檻值。在業務service來看就是,可用資料庫連接配接少甚至無連接配接可用。接下來就可以想象了吧(并發量、吞吐量、崩潰)。
第一種:磁盤讀io瓶頸,熱點資料太多,資料庫緩存放不下,每次查詢時會産生大量的io,降低查詢速度 -> 分庫和垂直分表 。
第二種:網絡io瓶頸,請求的資料太多,網絡帶寬不夠 -> 分庫 。
第一種:sql問題,如sql中包含join,group by,order by,非索引字段條件查詢等,增加cpu運算的操作 -> sql優化,建立合适的索引,在業務service層進行業務計算。
第二種:單表資料量太大,查詢時掃描的行太多,sql效率低,cpu率先出現瓶頸 -> 水準分表 。
二、分庫分表 ↑
概念:以 字段 為依據 ,按照一定政策(hash、range等),将一個 庫 中的資料拆分到多個 庫 中。
結果:
每個 庫 的 結構 都一樣;
每個 庫 的 資料 都不一樣,沒有交集;
所有 庫 的 并集 是全量資料;
場景:系統絕對并發量上來了,分表難以根本上解決問題,并且還沒有明顯的業務歸屬來垂直分庫。
分析:庫多了,io和cpu的壓力自然可以成倍緩解。
概念:以 字段 為依據 ,按照一定政策(hash、range等),将一個 表 中的資料拆分到多個 表 中。
每個 表 的 結構 都一樣;
每個 表 的 資料 都不一樣,沒有交集;
所有 表 的 并集 是全量資料;
場景:系統絕對并發量并沒有上來,隻是單表的資料量太多,影響了sql效率,加重了cpu負擔,以至于成為瓶頸。
分析:表的資料量少了,單次sql執行效率高,自然減輕了cpu的負擔。
概念:以 表 為依據,按照業務歸屬不同,将不同的 表 拆分到不同的 庫 中 。
每個 庫 的 結構 都不一樣;
每個 庫 的 資料 也不一樣,沒有交集;
場景:系統絕對并發量上來了,并且可以抽象出單獨的業務子產品。
分析:到這一步,基本上就可以服務化了。例如,随着業務的發展一些公用的配置表、字典表等越來越多,這時可以将這些表拆到單獨的庫中,甚至可以服務化。再有,随着業務的發展孵化出了一套業務模式,這時可以将相關的表拆到單獨的庫中,甚至可以服務化。
概念:以 字段 為依據,按照字段的活躍性,将 表 中字段拆到不同的 表 (主表和擴充表)中。
每個 表 的 結構 都不一樣;
每個 表 的 資料 也不一樣,一般來說,每個表的 字段 至少有一列交集,一般是主鍵,用于關聯資料;
場景:系統絕對并發量并沒有上來,表的記錄并不多,但是字段多,并且熱點資料和非熱點資料在一起,單行資料所需的存儲空間較大。以至于資料庫緩存的資料行減少,查詢時會去讀磁盤資料産生大量的随機讀io,産生io瓶頸。
分析:可以用清單頁和詳情頁來幫助了解。垂直分表的拆分原則是将熱點資料(可能會備援經常一起查詢的資料)放在一起作為主表,非熱點資料放在一起作為擴充表。這樣更多的熱點資料就能被緩存下來,進而減少了随機讀io。拆了之後,要想獲得全部資料就需要關聯兩個表來取資料。但記住,千萬别用join,因為join不僅會增加cpu負擔并且會講兩個表耦合在一起(必須在一個資料庫執行個體上)。關聯資料,應該在業務service層做文章,分别擷取主表和擴充表資料然後用關聯字段關聯得到全部資料。
三、分庫分表工具 ↑
sharding-sphere:jar,前身是sharding-jdbc;
tddl:jar,taobao distribute data layer;
mycat:中間件。
注:工具的利弊,請自行調研,官網和社群優先。
四、分庫分表步驟 ↑
根據容量(目前容量和增長量)評估分庫或分表個數 -> 選key(均勻)-> 分表規則(hash或range等)-> 執行(一般雙寫)-> 擴容問題(盡量減少資料的移動)。
五、分庫分表問題 ↑
端上 除了partition key隻有一個非partition key作為條件查詢
映射法
基因法
注:寫入時,基因法生成user_id,如圖。關于xbit基因,例如要分8張表,2 3 =8,故x取3,即3bit基因。根據user_id查詢時可直接取模路由到對應的分庫或分表。根據user_name查詢時,先通過user_name_code生成函數生成user_name_code再對其取模路由到對應的分庫或分表。id生成常用 snowflake算法 。
端上 除了partition key不止一個非partition key作為條件查詢
備援法
注:按照order_id或buyer_id查詢時路由到db_o_buyer庫中,按照seller_id查詢時路由到db_o_seller庫中。感覺有點本末倒置!有其他好的辦法嗎?改變技術棧呢?
背景 除了partition key還有各種非partition key組合條件查詢
nosql法
注:用 nosql法 解決(es等)。
水準擴容庫(更新從庫法)
注:擴容是成倍的。
水準擴容表(雙寫遷移法)
第一步:(同步雙寫)應用配置雙寫,部署;
第二步:(同步雙寫)将老庫中的老資料複制到新庫中;
第三步:(同步雙寫)以老庫為準校對新庫中的老資料;
第四步:(同步雙寫)應用去掉雙寫,部署;
注: 雙寫 是通用方案。
六、分庫分表總結 ↑
分庫分表,首先得知道瓶頸在哪裡,然後才能合理地拆分(分庫還是分表?水準還是垂直?分幾個?)。且不可為了分庫分表而拆分。
選key很重要,既要考慮到拆分均勻,也要考慮到非partition key的查詢。
隻要能滿足需求,拆分規則越簡單越好。
七、分庫分表示例 ↑
示例github位址: https://github.com/littlecharacter4s/study-sharding