天天看點

終于等到你!阿裡正式向 Apache Flink 貢獻 Blink 源碼

終于等到你!阿裡正式向 Apache Flink 貢獻 Blink 源碼

阿裡妹導讀:如同我們去年12月在 Flink Forward China 峰會所約,阿裡巴巴内部 Flink 版本 Blink 将于 2019 年 1 月底正式開源。今天,我們終于等到了這一刻。

阿裡資深技術專家大沙,将為大家詳細介紹本次開源的Blink主要功能和優化點,希望與業界同仁共同攜手,推動Flink社群進一步發展。

Blink簡介

Apache Flink是德國柏林工業大學的幾個博士生和研究所學生從學校開始做起來的項目,早期叫做Stratosphere。2014年,StratoSphere項目中的核心成員從學校出來開發了Flink,同時将Flink計算的主流方向定位為流計算,并在同年将Flink捐贈Apache,後來快速孵化成為Apache的頂級項目。現在Flink是業界公認的最好的大資料流計算引擎。

終于等到你!阿裡正式向 Apache Flink 貢獻 Blink 源碼

阿裡巴巴在2015年開始嘗試使用Flink。但是阿裡的業務體量非常龐大,挑戰也很多。彼時的Flink不管是規模還是穩定性尚未經曆實踐,成熟度有待商榷。為了把這麼大的業務體量支援好,我們不得不在Flink之上做了一系列的改進,是以阿裡巴巴維護了一個内部版本的Flink,它的名字叫做Blink。

基于Blink的計算平台于2016年正式上線。截至目前,阿裡絕大多數的技術部門都在使用Blink。Blink一直在阿裡内部錯綜複雜的業務場景中鍛煉成長着。對于内部使用者回報的各種性能、資源使用率、易用性等諸多方面的問題,Blink都做了針對性的改進。雖然現在Blink在阿裡内部用的最多的場景主要還是在流計算,但是在批計算場景也有不少業務上線使用了。例如,在搜尋和推薦的算法業務平台中,它使用Blink同時進行流計算和批處理。Blink被用來實作了流批一體化的樣本生成和特征抽取這些流程,能夠處理的特征數達到了數千億,而且每秒鐘處理數億條消息。在這個場景的批進行中,我們單個作業處理的資料量已經超過400T,并且為了節省資源,我們的批處理作業是和流計算作業以及搜尋的線上引擎運作在同樣的機器上。是以大家可以看到流批一體化已經在阿裡巴巴取得了極大的成功,我們希望這種成功和阿裡巴巴内部的經驗都能夠帶回給社群。

Blink開源的背景

其實從我們選擇Flink的第一天開始我們就一直和社群緊密合作。過去的這幾年我們也一直在把阿裡對Flink 的改進推回社群。從2016年開始我們已經将流計算SQL的大部分功能,針對runtime的穩定性和性能優化做的若幹重要設計都推回了社群。但是Blink本身發展疊代的速度非常快,而社群有自己的步伐,很多時候可能無法把我們的變更及時推回去。對于社群來說,一些大的功能和重構,需要達成共識後,才能被接受,這樣才能更好地保證開源項目的品質,但是同時就會導緻推入的速度變得相對較慢。經過這幾年的開發疊代,我們這邊和社群之間的差距已經變得比較大了。

Blink 有一些很好的新功能,比如性能優越的批處理功能,在社群的版本是沒有的。在過去這段時間裡,我們不斷聽到有人在詢問Blink的各種新功能。期望Blink盡快開源的呼聲越來越大。我們一直在思考如何開源的問題,一種方案就是和以前一樣,繼續把各種功能和優化分解,逐個和社群讨論,慢慢地推回Flink。但這顯然不是大家所期待的。另一個方案,就是先完整的盡可能的多的把代碼開源,讓社群的開發者能夠盡快試用起來。第二個方案很快收到社群廣大使用者的支援。是以,從2018年年中開始我們就開始做開源的相關準備。經過半年的努力,我們終于把大部分Blink的功能梳理好,開源了出來。

Blink開源的方式

我們把代碼貢獻出來,是為了讓大家能先嘗試一些他們感興趣的功能。Blink永遠不會單獨成為一個獨立的開源項目來運作,他一定是Flink的一部分。開源後我們期望能找到辦法以最快的方式将Blink merge到Flink中去。Blink開源隻有一個目的,就是希望 Flink 做得更好。Apache Flink 是一個社群項目,Blink以什麼樣的形式進入 Flink 是最合适的,怎麼貢獻是社群最希望的方式,我們都要和社群一起讨論。

在過去的一段時間内,我們在Flink社群征求了廣泛的意見,大家一緻認為将本次開源的Blink代碼作為Flink的一個branch直接推回到Apache Flink項目中是最合适的方式。并且我們和社群也一起讨論規劃出一套能夠快速merge Blink到Flink master中的方案(具體細節可以檢視Flink社群正在讨論的FLIP32)。我們期望這個merge能夠在很短的時間内完成。這樣我們之後的Machine Learning等其他新功能就可以直接推回到Flink master。相信用不了多久,Flink 和 Blink 就完全合二為一了。在那之後,阿裡巴巴将直接使用Flink用于生産,并同時協助社群一起來維護Flink。

本次開源的Blink的主要功能和優化點

本次開源的Blink代碼在Flink 1.5.1版本之上,加入了大量的新功能,以及在性能和穩定性上的各種優化。主要貢獻包括,阿裡巴巴在流計算上積累的一些新功能和性能的優化,一套完整的(能夠跑通全部TPC-H/TPC-DS,能夠讀取Hive meta和data)高性能Batch SQL,以及一些以提升易用性為主的功能(包括支援更高效的interactive programming, 與zeppelin更緊密的結合, 以及體驗和性能更佳的Flink web)。未來我們還将繼續給Flink貢獻在AI,IoT以及其他新領域的功能和優化。更多的關于這一版本Blink release的細節,請參考Blink代碼根目錄下的README.md文檔。下面,我來分子產品介紹下Blink主要的新的功能和優化點。

Runtime

為了更好的支援batch processing,以及解決阿裡巴巴大規模生産場景中遇到的各種挑戰,Blink對Runtime架構、效率、穩定性方面都做了大量改進。在架構方面,首先Blink引入了Pluggable ShuffleArchitecture,開發者可以根據不同的計算模型或者新硬體的需要實作不同的shuffle政策進行适配。此外Blink還引入新的排程架構,容許開發者根據計算模型自身的特點定制不同排程器。為了優化性能,Blink可以讓算子更加靈活的chain在一起,避免了不必要的資料傳輸開銷。在Pipeline Shuffle模式中,使用了ZeroCopy減少了網絡層記憶體消耗。在BroadCast Shuffle模式中,Blink優化掉了大量的不必要的序列化和反序列化開銷。

此外,Blink提供了全新的JM FailOver機制,JM發生錯誤之後,新的JM會重新接管整個JOB而不是重新開機JOB,進而大大減少了JM FailOver對JOB的影響。最後,Blink也開發了對Kubernetes的支援。不同于Standalone模式在Kubernetes上的拉起方式,在基于Flink FLIP6的架構上基礎之上,Blink根據job的資源需求動态的申請/釋放Pod來運作TaskExecutor,實作了資源彈性,提升了資源的使用率。

SQL/TableAPI

終于等到你!阿裡正式向 Apache Flink 貢獻 Blink 源碼

SQL/TableAPI架構上的重構和性能的優化是Blink本次開源版本的一個重大貢獻。首先,我們對SQL engine的架構做了較大的調整。提出了全新的Query Processor(QP), 它包括了一個優化層(Query Optimizer)和一個算子層(Query Executor)。這樣一來,流計算和批計算的在這兩層大部分的設計工作就能做到盡可能的複用。

另外,SQL和TableAPI的程式最終執行的時候将不會翻譯到DataStream和DataSet這兩個API上,而是直接建構到可運作的DAG上來,這樣就使得實體執行算子的設計不完全依賴底層的API,有了更大的靈活度,同時執行代碼也能夠被靈活的codegen出來。唯一的一個影響就是這個版本的SQL和TableAPI不能和DataSet這個API進行互相轉換,但仍然保留了和DataStream API互相轉換的能力(将DataStream注冊成表,或将Table轉成DataStream後繼續操作)。未來,我們計劃把dataset的功能慢慢都在DataStream和TableAPI上面實作。到那時DataStream和SQL以及tableAPI一樣,是一個可以同時描述bounded以及unbounded processing的API。

除了架構上的重構,Blink還在具體實作上做了較多比較大的重構。首先,Blink引入了二進制的資料結構BinaryRow,極大的減少了資料存儲上的開銷以及資料在序列化和反序列化上計算的開銷。其次,在算子的實作層面,Blink在更廣範圍内引入了CodeGen技術。由于預先知道算子需要處理的資料的類型,在QP層内部就可以直接生成更有針對性更高效的執行代碼。

Blink的算子會動态的申請和使用資源,能夠更好的利用資源,提升效率,更加重要的是這些算子對資源有着比較好的控制,不會發生OutOfMemory 的問題。此外,針對流計算場景,Blink加入了miniBatch的執行模式,在aggregate、join等需要和state頻繁互動且往往又能先做部分reduce的場景中,使用miniBatch能夠極大的減少IO,進而成數量級的提升性能。除了上面提到的這些重要的重構和功能點,Blink還實作了完整的SQL DDL,帶emit政策的流計算DML,若幹重要的SQL功能,以及大量的性能優化政策。

有了上面提到的諸多架構和實作上的重構。Blink的SQL/tableAPI在功能和性能方面都取得了脫胎換骨的變化。在批計算方面,首先Blink batch SQL能夠完整的跑通TPC-H和TPC-DS,且性能上有着極大的提升。如上圖所示,是這次開源的Blink版本和spark 2.3.1的TPC-DS的benchmark性能對比。柱狀圖的高度代表了運作的總時間,高度越低說明性能越好。可以看出,Blink在TPC-DS上和Spark相比有着非常明顯的性能優勢。而且這種性能優勢随着資料量的增加而變得越來越大。在實際的場景這種優勢已經超過 Spark的三倍。在流計算性能上我們也取得了類似的提升。我們線上的很多典型作業,它的性能是原來的3到5倍。在有資料傾斜的場景,以及若幹比較有挑戰的TPC-H query,流計算性能甚至得到了數十倍的提升。

除了标準的Relational SQL API。TableAPI在功能上是SQL的超集,是以在SQL上所有新加的功能,我們在tableAPI也添加了相對應的API。除此之外,我們還在TableAPI上引入了一些新的功能。其中一個比較重要是cache功能。在批計算場景下,使用者可以根據需要來cache計算的中間結果,進而避免不必要的重複計算。它極大的增強了interactive programming體驗。我們後續會在tableAPI上添加更多有用的功能。其實很多新功能已經在社群展開讨論并被社群接受,例如我們在tableAPI增加了對一整行操作的算子map/flatMap/aggregate/flatAggregate(Flink FLIP29)等等。

Hive的相容性

我們這次開源的版本實作了在中繼資料(meta data)和資料層将Flink和Hive對接和打通。國内外很多公司都還在用 Hive 在做自己的批處理。對于這些使用者,現在使用這次Blink開源的版本,就可以直接用Flink SQL去查詢Hive的資料,真正能夠做到在Hive引擎和Flink引擎之間的自由切換。

為了打通中繼資料,我們重構了Flink catalog的實作,并且增加了兩種catalog,一個是基于記憶體存儲的FlinkInMemoryCatalog,另外一個是能夠橋接Hive metaStore的HiveCatalog。有了這個HiveCatalog,Flink作業就能讀取Hive的metaData。為了打通資料,我們實作了HiveTableSource,使得Flink job可以直接讀取Hive中普通表和分區表的資料。是以,通過這個版本,使用者可以使用Flink SQL讀取已有的Hive meta和data,做資料處理。未來我們将在Flink上繼續加大對Hive相容性的支援,包括支援Hive特有的query,data type,和Hive UDF等等。

Zeppelin for Flink

為了提供更好的可視化和互動式體驗,我們做了大量的工作讓Zeppelin能夠更好的支援Flink。這些改動有些是在Flink上的,有些是在Zeppelin上的。在這些改動全部推回Flink和Zeppelin社群之前,大家可以使用這個Zeppelin image(具體細節請參考Blink代碼裡的docs/quickstart/zeppelin_quickstart.md)來測試和使用這些功能。這個用于測試的Zeppelin版本,首先很好的融合和內建了Flink的多種運作模式以及運維界面。使用文本SQL和tableAPI可以自如的查詢Flink的static table和dynamic table。

此外,針對Flink的流計算的特點,這一版Zeppelin也很好的支援了savepoint,使用者可以在界面上暫停作業,然後再從savepoint恢複繼續運作作業。在資料展示方面,除了傳統的資料分析界面,我們也添加了流計算的翻牌器和時間序列展示等等功能。為了友善使用者試用,我們在這一版zeppelin中提供3個built-in的Flink tutorial的例子: 一個是做StreamingETL的例子, 另外兩個分别是做Flink Batch,Flink Stream的基礎樣例。

終于等到你!阿裡正式向 Apache Flink 貢獻 Blink 源碼

Flink Web

我們對Flink Web的易用性與性能等多個方面做了大量的改進,從資源使用、作業調優、日志查詢等次元新增了大量功能,使得使用者可以更友善的對Flink作業進行運維。在資源使用方面,新增了Cluster、TaskManager與Job三個級别的資源資訊,使得資源的申請與使用情況一目了然。作業的拓撲關系及資料流向可以追溯至 Operator 級别,Vertex 增加了InQueue,OutQueue等多項名額,可以友善的追蹤資料的反壓、過濾及傾斜情況。TaskManager 和 JobManager 的日志功能得到大幅度加強,從Job、Vertex、SubTask 等多個次元都可以關聯至對應日志,提供多日志檔案通路入口,以及分頁展示查詢和日志高亮功能。

另外,我們使用了較新的Angular 7.0 對Flink web進行了全面重構,頁面運作性能有了一倍以上的提升。在大資料量情況下也不會發生頁面卡死或者卡頓情況。同時對頁面的互動邏輯進行了整體優化,絕大部分關聯資訊在單個頁面就可以完成查詢和比對工作,減少了大量不必要的跳轉。

終于等到你!阿裡正式向 Apache Flink 貢獻 Blink 源碼

未來的規劃

Blink邁出了全面開源的第一步,接下來我們會和社群合作,盡可能以最快的方式将Blink的功能和性能上的優化merge回Flink。本次的開源版本一方面貢獻了Blink多年在流計算的積累,另一方面又重磅推出了在批處理上的成果。接下來,我們會持續給Flink社群貢獻其他方面的功能。我們期望每過幾個月就能看到技術上有一個比較大的亮點貢獻到社群。下一個亮點應該是對機器學習的支援。要把機器學習支援好,有一系列的工作要做,包括引擎的功能,性能,和易用性。這裡面大部分的工作我們已經開發完成,并且很多功能都已經在阿裡巴巴内部服務上線了。

除了技術上創新以及新功能之外,Flink的易用性和外圍生态也非常重要。我們已經啟動了若幹這方面的項目,包括Python以及Go等多語言支援,Flink叢集管理,Notebook,以及機器學習平台等等。這些項目有些會成為Flink自身的一部分貢獻回社群,有些不是。但它們都基于Flink,是Flink生态的一個很好的補充。獨立于Flink之外的那些項目,我們都也在認真的考慮開源出來。總之,Blink在開源的第一天起,就已經完全all-in的融入了Flink社群,我們希望所有的開發者看到我們的誠意和決心。

未來,無論是功能還是生态,我們都會在Flink社群加大投入,我們也将投入力量做 Flink 社群的營運,讓 Flink 真正在中國、乃至全世界大規模地使用起來。我們衷心的希望更多的人加入,一起把Apache Flink開源社群做得更好!

原文釋出時間為:2019-01-28

本文作者:大沙

本文來自雲栖社群合作夥伴“

阿裡技術

”,了解相關資訊可以關注“

”。