國内現在有大量的公司都在使用 elasticsearch,包括攜程、滴滴、今日頭條、餓了麼、360安全、小米、vivo等諸多知名公司。
除了搜尋之外,結合kibana、logstash、beats,elastic stack還被廣泛運用在大資料近實時分析領域,包括日志分析、名額監控、資訊安全等多個領域。它可以幫助你探索海量結構化、非結構化資料,按需建立可視化報表,對監控資料設定報警門檻值,甚至通過使用機器學習技術,自動識别異常狀況。
京東到家訂單中心系統業務中,無論是外部商家的訂單生産,或是内部上下遊系統的依賴,訂單查詢的調用量都非常大,造成了訂單資料讀多寫少的情況。京東到家的訂單資料存儲在mysql中,但顯然隻通過db來支撐大量的查詢是不可取的,同時對于一些複雜的查詢,mysql支援得不夠友好,是以訂單中心系統使用了elasticsearch來承載訂單查詢的主要壓力。
elasticsearch 做為一款功能強大的分布式搜尋引擎,支援近實時的存儲、搜尋資料,在京東到家訂單系統中發揮着巨大作用,目前訂單中心es叢集存儲資料量達到10億個文檔,日均查詢量達到5億。随着京東到家近幾年業務的快速發展,訂單中心es架設方案也不斷演進,發展至今es叢集架設是一套實時互備方案,很好的保障了es叢集讀寫的穩定性。
如上圖,訂單中心es叢集架設示意圖。整個架設方式通過vip來負載均衡外部請求,第一層gateway節點實質為es中client node,相當于一個智能負載均衡器,充當着分發請求的角色。第二層為data node,負責存儲資料以及執行資料的相關操作。整個叢集有一套主分片,二套副分片(一主二副),從網關節點轉發過來的請求,會在打到資料節點之前通過輪詢的方式進行均衡。叢集增加一套副本并擴容機器的方式,增加了叢集吞吐量,進而提升了整個叢集查詢性能。
當然分片數量和分片副本數量并不是越多越好,在此階段中,對選擇适當的分片數量做了近一步探索。分片數可以了解為mysql中的分庫分表,而目前訂單中心es查詢主要分為兩類:單id查詢以及分頁查詢。分片數越大,叢集橫向擴容規模也更大,根據分片路由的單id查詢吞吐量也能大大提升,但對于聚合的分頁查詢性能則将降低。分片數越小,叢集橫向擴容規模更小,單id的查詢性能也将下降,但對于分頁查詢,性能将會得到提升。是以如何均衡分片數量和現有查詢業務,我們做了很多次調整壓測,最終選擇了叢集性能較好的分片數。
由于大部分es查詢的流量都來源于近幾天的訂單,且訂單中心資料庫資料已有一套歸檔機制,将指定天數之前已經關閉的訂單轉移到曆史訂單庫。
架構的快速疊代源于業務的快速發展,正是由于近幾年到家業務的高速發展,訂單中心的架構也不斷優化更新。而架構方案沒有最好的,隻有最合适的。相信再過幾年,訂單中心的架構又将是另一個面貌,但吞吐量更大,性能更好,穩定性更強,将是訂單中心系統永遠的追求。
選擇對分片後的資料庫建立實時索引,把查詢收口到一個獨立的 web service,在保證性能的前提下,提升業務應用查詢時的便捷性。最終我們選擇了 elasticsearch,看中的是它的輕量級、易用和對分布式更好的支援,整個安裝包也隻有幾十兆。
這個是比較通用的資料的流程,一般會通過kafka分離産生資料的應用程式和後面的平台,通過etl落到不同的地方,按照優先級和冷熱程度采取不同的存儲方式。一般來說,冷資料存放到hdfs,如果溫資料、或者熱資料會采用database以及cache。一旦資料落地,我們會做兩方面的應用,第一個方面的應用是傳統bi,比如會産生各種各樣的報表,報表的閱聽人是更高的決策層和管理層,他們看了之後,會有相應的業務調整和更高層面的規劃或轉變。這個使用路徑比較傳統的,在資料倉庫時代就已經存在了。現在有一種新興的場景就是利用大資料進行快速決策,資料不是喂給人的,資料分析結果由程式來消費,其實是再次的回報到資料源頭即應用程式中,讓他們基于快速分析後的結果,調整已有政策,這樣就形成了一個資料使用的循環。這樣我們從它的輸入到輸出會形成一種閉環,而且這個閉環全部是機器參與的,這也是為什麼去研究這種大規模的,或者快速決策的原因所在。如果資料最終還會給人本身來看的話,就沒有必要更新那麼快,因為一秒鐘重新整理一次或者10秒鐘重新整理一次對人是沒有意義的,因為我們腦子不可能一直轉那麼快,基于資料一直的做調整也是不現實的,但是對機器來講,就完全沒有問題。
目前,我們最大的日志單叢集有120個data node,運作于70台實體伺服器上。資料規模如下:
單日索引資料條數600億,新增索引檔案25tb (含一個複制片則為50tb)
業務高峰期峰值索引速率維持在百萬條/秒
曆史資料保留時長根據業務需求制定,從10天 - 90天不等
叢集共3441個索引、17000個分片、資料總量約9300億, 磁盤總消耗1pb
15年去哪兒網酒店日均訂單量達到30w+,随着多平台訂單的聚合日均訂單能達到100w左右。原來采用的熱表分庫方式,即将最近6個月的訂單的放置在一張表中,将曆史訂單放在在history表中。history表存儲全量的資料,當使用者查詢的下單時間跨度超過6個月即查詢曆史訂單表,此分表方式熱表的資料量為4000w左右,當時能解決的問題。但是顯然不能滿足攜程藝龍訂單接入的需求。如果繼續按照熱表方式,資料量将超過1億條。全量資料表儲存2年的可能就超過4億的資料量。是以尋找有效途徑解決此問題迫在眉睫。由于對這預計4億的資料量還需按照預定日期、入住日期、離店日期、訂單号、聯系人姓名、電話、酒店名稱、訂單狀态……等多個條件查詢。是以簡單按照某一個次元進行分表操作沒有意義。elasticsearch分布式搜尋儲存叢集的引入,就是為了解決訂單資料的存儲與搜尋的問題。
對訂單模型進行抽象和分類,将常用搜尋字段和基礎屬性字段剝離。db做分庫分表,存儲訂單詳情;elasticsearch存儲搜素字段。
訂單複雜查詢直接走elasticsearch,基于orderno的簡單查詢走db,如下圖所示。
系統伸縮性:elasticsearch 中索引設定了8個分片,目前es單個索引的文檔達到1.4億,合計達到2億條資料占磁盤大小64g,叢集機器磁盤容量240g。
全面介紹 elastic stack 在58集團資訊安全部的落地,更新,優化以及應用。包括如下幾個方面:接入背景,存儲選型,性能挑戰,master node以及data node優化,安全實踐,高吞吐量以及低延遲搜尋優化;kibana 的落地,本地化使其更友善産品、營運使用。
滴滴 2016 年初開始建構 elasticsearch 平台,如今已經發展到超過 3500+ elasticsearch 執行個體,超過 5pb 的資料存儲,峰值寫入 tps 超過了 2000w/s 的超大規模。elasticsearch 在滴滴有着非常豐富的使用場景,例如線上核心的打車地圖搜尋,客服、營運的多元度查詢,滴滴日志服務等近千個平台使用者。
先看看滴滴 elasticsearch 單叢集的架構:滴滴在單叢集架構的時候,寫入和查詢就已經通過 sink 服務和 gateway 服務管控起來。
滴滴幾乎所有寫入 elasticsearch 的資料都是經由 kafka 消費入到 elasticsearch。kafka 的資料包括業務 log 資料、mysql binlog 資料和業務自主上報的資料,sink 服務将這些資料實時消費入到 elasticsearch。最初設計 sink 服務是想對寫入 elasticsearch 叢集進行管控,保護 elasticsearch 叢集,防止海量的資料寫入拖垮 elasticsearch,之後我們也一直沿用了 sink 服務,并将該服務從 elasticsearch 平台分離出去,成立滴滴 sink 資料投遞平台,可以從 kafka 或者 mq 實時同步資料到 elasticsearch、hdfs、ceph 等多個存儲服務。有了多叢集架構後,elasticsearch 平台可以消費一份 mq 資料寫入多個 elasticsearch 叢集,做到叢集級别的容災,還能通過 mq 回溯資料進行故障恢複。
所有業務的查詢都是經過 gateway 服務,gateway 服務實作了 elasticsearch 的 http restful 和 tcp 協定,業務方可以通過 elasticsearch 各語言版本的 sdk 直接通路 gateway 服務,gateway 服務還實作了 sql 接口,業務方可以直接使用 sql 通路 elasticsearch 平台。gateway 服務最初提供了應用權限的管控,通路記錄,限流、降級等基本能力,後面随着平台演進,gateway 服務還提供了索引存儲分離、dsl 級别的限流、多叢集災備等能力。
搜尋引擎中,主要考慮到elasticsearch支援結構化資料查詢以及支援實時頻繁更新特性,傳統訂單查詢報表的痛點,以及elasticsearch能夠幫助解決的問題。
整個業務線使用服務化方式,elasticsearch叢集和資料庫分庫,作為資料源被訂單服務系統封裝為對外統一接口;各前、背景應用和報表中心,使用服務化的方式擷取訂單資料。
想知道更多?掃描下面的二維碼關注我