天天看點

spark性能優化指南

[TOC]

前言

在大資料計算領域,Spark已經成為了越來越流行、越來越受歡迎的計算平台之一。Spark的功能涵蓋了大資料領域的離線批處理、SQL類處理、流式/實時計算、機器學習、圖計算等各種不同類型的計算操作,應用範圍與前景非常廣泛。在美團•大衆點評,已經有很多同學在各種項目中嘗試使用Spark。大多數同學(包括筆者在内),最初開始嘗試使用Spark的原因很簡單,主要就是為了讓大資料計算作業的執行速度更快、性能更高。

然而,通過Spark開發出高性能的大資料計算作業,并不是那麼簡單的。如果沒有對Spark作業進行合理的調優,Spark作業的執行速度可能會很慢,這樣就完全展現不出Spark作為一種快速大資料計算引擎的優勢來。是以,想要用好Spark,就必須對其進行合理的性能優化。

Spark的性能調優實際上是由很多部分組成的,不是調節幾個參數就可以立竿見影提升作業性能的。我們需要根據不同的業務場景以及資料情況,對Spark作業進行綜合性的分析,然後進行多個方面的調節和優化,才能獲得最佳性能。

筆者根據之前的Spark作業開發經驗以及實踐積累,總結出了一套Spark作業的性能優化方案。整套方案主要分為開發調優、資源調優、資料傾斜調優、shuffle調優幾個部分。開發調優和資源調優是所有Spark作業都需要注意和遵循的一些基本原則,是高性能Spark作業的基礎;資料傾斜調優,主要講解了一套完整的用來解決Spark作業資料傾斜的解決方案;shuffle調優,面向的是對Spark的原理有較深層次掌握和研究的同學,主要講解了如何對Spark作業的shuffle運作過程以及細節進行調優。

本文作為Spark性能優化指南的基礎篇,主要講解開發調優以及資源調優。

開發調優

調優概述

Spark性能優化的第一步,就是要在開發Spark作業的過程中注意和應用一些性能優化的基本原則。開發調優,就是要讓大家了解以下一些Spark基本開發原則,包括:RDD lineage設計、算子的合理使用、特殊操作的優化等。在開發過程中,時時刻刻都應該注意以上原則,并将這些原則根據具體的業務以及實際的應用場景,靈活地運用到自己的Spark作業中。

原則一:避免建立重複的RDD

通常來說,我們在開發一個Spark作業時,首先是基于某個資料源(比如Hive表或HDFS檔案)建立一個初始的RDD;接着對這個RDD執行某個算子操作,然後得到下一個RDD;以此類推,循環往複,直到計算出最終我們需要的結果。在這個過程中,多個RDD會通過不同的算子操作(比如map、reduce等)串起來,這個“RDD串”,就是RDD lineage,也就是“RDD的血緣關系鍊”。

我們在開發過程中要注意:對于同一份資料,隻應該建立一個RDD,不能建立多個RDD來代表同一份資料。

一些Spark初學者在剛開始開發Spark作業時,或者是有經驗的工程師在開發RDD lineage極其冗長的Spark作業時,可能會忘了自己之前對于某一份資料已經建立過一個RDD了,進而導緻對于同一份資料,建立了多個RDD。這就意味着,我們的Spark作業會進行多次重複計算來建立多個代表相同資料的RDD,進而增加了作業的性能開銷。

一個簡單的例子

// 需要對名為“hello.txt”的HDFS檔案進行一次map操作,再進行一次reduce操作。也就是說,需要對一份資料執行兩次算子操作。

// 錯誤的做法:對于同一份資料執行多次算子操作時,建立多個RDD。
// 這裡執行了兩次textFile方法,針對同一個HDFS檔案,建立了兩個RDD出來,然後分别對每個RDD都執行了一個算子操作。
// 這種情況下,Spark需要從HDFS上兩次加載hello.txt檔案的内容,并建立兩個單獨的RDD;第二次加載HDFS檔案以及建立RDD的性能開銷,很明顯是白白浪費掉的。
val rdd1 = sc.textFile("hdfs://192.168.0.1:9000/hello.txt")
rdd1.map(...)
val rdd2 = sc.textFile("hdfs://192.168.0.1:9000/hello.txt")
rdd2.reduce(...)

// 正确的用法:對于一份資料執行多次算子操作時,隻使用一個RDD。
// 這種寫法很明顯比上一種寫法要好多了,因為我們對于同一份資料隻建立了一個RDD,然後對這一個RDD執行了多次算子操作。
// 但是要注意到這裡為止優化還沒有結束,由于rdd1被執行了兩次算子操作,第二次執行reduce操作的時候,還會再次從源頭處重新計算一次rdd1的資料,是以還是會有重複計算的性能開銷。
// 要徹底解決這個問題,必須結合“原則三:對多次使用的RDD進行持久化”,才能保證一個RDD被多次使用時隻被計算一次。
val rdd1 = sc.textFile("hdfs://192.168.0.1:9000/hello.txt")
rdd1.map(...)
rdd1.reduce(...)      

原則二:盡可能複用同一個RDD

除了要避免在開發過程中對一份完全相同的資料建立多個RDD之外,在對不同的資料執行算子操作時還要盡可能地複用一個RDD。比如說,有一個RDD的資料格式是key-value類型的,另一個是單value類型的,這兩個RDD的value資料是完全一樣的。那麼此時我們可以隻使用key-value類型的那個RDD,因為其中已經包含了另一個的資料。對于類似這種多個RDD的資料有重疊或者包含的情況,我們應該盡量複用一個RDD,這樣可以盡可能地減少RDD的數量,進而盡可能減少算子執行的次數。

一個簡單的例子

// 錯誤的做法。

// 有一個<Long, String>格式的RDD,即rdd1。
// 接着由于業務需要,對rdd1執行了一個map操作,建立了一個rdd2,而rdd2中的資料僅僅是rdd1中的value值而已,也就是說,rdd2是rdd1的子集。
JavaPairRDD<Long, String> rdd1 = ...
JavaRDD<String> rdd2 = rdd1.map(...)

// 分别對rdd1和rdd2執行了不同的算子操作。
rdd1.reduceByKey(...)
rdd2.map(...)

// 正确的做法。

// 上面這個case中,其實rdd1和rdd2的差別無非就是資料格式不同而已,rdd2的資料完全就是rdd1的子集而已,卻建立了兩個rdd,并對兩個rdd都執行了一次算子操作。
// 此時會因為對rdd1執行map算子來建立rdd2,而多執行一次算子操作,進而增加性能開銷。

// 其實在這種情況下完全可以複用同一個RDD。
// 我們可以使用rdd1,既做reduceByKey操作,也做map操作。
// 在進行第二個map操作時,隻使用每個資料的tuple._2,也就是rdd1中的value值,即可。
JavaPairRDD<Long, String> rdd1 = ...
rdd1.reduceByKey(...)
rdd1.map(tuple._2...)

// 第二種方式相較于第一種方式而言,很明顯減少了一次rdd2的計算開銷。
// 但是到這裡為止,優化還沒有結束,對rdd1我們還是執行了兩次算子操作,rdd1實際上還是會被計算兩次。
// 是以還需要配合“原則三:對多次使用的RDD進行持久化”進行使用,才能保證一個RDD被多次使用時隻被計算一次。      

原則三:對多次使用的RDD進行持久化

當你在Spark代碼中多次對一個RDD做了算子操作後,恭喜,你已經實作Spark作業第一步的優化了,也就是盡可能複用RDD。此時就該在這個基礎之上,進行第二步優化了,也就是要保證對一個RDD執行多次算子操作時,這個RDD本身僅僅被計算一次。

Spark中對于一個RDD執行多次算子的預設原理是這樣的:每次你對一個RDD執行一個算子操作時,都會重新從源頭處計算一遍,計算出那個RDD來,然後再對這個RDD執行你的算子操作。這種方式的性能是很差的。

是以對于這種情況,我們的建議是:對多次使用的RDD進行持久化。此時Spark就會根據你的持久化政策,将RDD中的資料儲存到記憶體或者磁盤中。以後每次對這個RDD進行算子操作時,都會直接從記憶體或磁盤中提取持久化的RDD資料,然後執行算子,而不會從源頭處重新計算一遍這個RDD,再執行算子操作。

對多次使用的RDD進行持久化的代碼示例

// 如果要對一個RDD進行持久化,隻要對這個RDD調用cache()和persist()即可。

// 正确的做法。
// cache()方法表示:使用非序列化的方式将RDD中的資料全部嘗試持久化到記憶體中。
// 此時再對rdd1執行兩次算子操作時,隻有在第一次執行map算子時,才會将這個rdd1從源頭處計算一次。
// 第二次執行reduce算子時,就會直接從記憶體中提取資料進行計算,不會重複計算一個rdd。
val rdd1 = sc.textFile("hdfs://192.168.0.1:9000/hello.txt").cache()
rdd1.map(...)
rdd1.reduce(...)

// persist()方法表示:手動選擇持久化級别,并使用指定的方式進行持久化。
// 比如說,StorageLevel.MEMORY_AND_DISK_SER表示,記憶體充足時優先持久化到記憶體中,記憶體不充足時持久化到磁盤檔案中。
// 而且其中的_SER字尾表示,使用序列化的方式來儲存RDD資料,此時RDD中的每個partition都會序列化成一個大的位元組數組,然後再持久化到記憶體或磁盤中。
// 序列化的方式可以減少持久化的資料對記憶體/磁盤的占用量,進而避免記憶體被持久化資料占用過多,進而發生頻繁GC。
val rdd1 = sc.textFile("hdfs://192.168.0.1:9000/hello.txt").persist(StorageLevel.MEMORY_AND_DISK_SER)
rdd1.map(...)
rdd1.reduce(...)      

對于persist()方法而言,我們可以根據不同的業務場景選擇不同的持久化級别。

Spark的持久化級别

持久化級别 含義解釋
MEMORY_ONLY 使用未序列化的Java對象格式,将資料儲存在記憶體中。如果記憶體不夠存放所有的資料,則資料可能就不會進行持久化。那麼下次對這個RDD執行算子操作時,那些沒有被持久化的資料,需要從源頭處重新計算一遍。這是預設的持久化政策,使用cache()方法時,實際就是使用的這種持久化政策。
MEMORY_AND_DISK 使用未序列化的Java對象格式,優先嘗試将資料儲存在記憶體中。如果記憶體不夠存放所有的資料,會将資料寫入磁盤檔案中,下次對這個RDD執行算子時,持久化在磁盤檔案中的資料會被讀取出來使用。
MEMORY_ONLY_SER 基本含義同MEMORY_ONLY。唯一的差別是,會将RDD中的資料進行序列化,RDD的每個partition會被序列化成一個位元組數組。這種方式更加節省記憶體,進而可以避免持久化的資料占用過多記憶體導緻頻繁GC。
MEMORY_AND_DISK_SER 基本含義同MEMORY_AND_DISK。唯一的差別是,會将RDD中的資料進行序列化,RDD的每個partition會被序列化成一個位元組數組。這種方式更加節省記憶體,進而可以避免持久化的資料占用過多記憶體導緻頻繁GC。
DISK_ONLY 使用未序列化的Java對象格式,将資料全部寫入磁盤檔案中。
MEMORY_ONLY_2, MEMORY_AND_DISK_2, 等等. 對于上述任意一種持久化政策,如果加上字尾_2,代表的是将每個持久化的資料,都複制一份副本,并将副本儲存到其他節點上。這種基于副本的持久化機制主要用于進行容錯。假如某個節點挂掉,節點的記憶體或磁盤中的持久化資料丢失了,那麼後續對RDD計算時還可以使用該資料在其他節點上的副本。如果沒有副本的話,就隻能将這些資料從源頭處重新計算一遍了。

如何選擇一種最合适的持久化政策

  • 預設情況下,性能最高的當然是MEMORY_ONLY,但前提是你的記憶體必須足夠足夠大,可以綽綽有餘地存放下整個RDD的所有資料。因為不進行序列化與反序列化操作,就避免了這部分的性能開銷;對這個RDD的後續算子操作,都是基于純記憶體中的資料的操作,不需要從磁盤檔案中讀取資料,性能也很高;而且不需要複制一份資料副本,并遠端傳送到其他節點上。但是這裡必須要注意的是,在實際的生産環境中,恐怕能夠直接用這種政策的場景還是有限的,如果RDD中資料比較多時(比如幾十億),直接用這種持久化級别,會導緻JVM的OOM記憶體溢出異常。
  • 如果使用MEMORY_ONLY級别時發生了記憶體溢出,那麼建議嘗試使用MEMORY_ONLY_SER級别。該級别會将RDD資料序列化後再儲存在記憶體中,此時每個partition僅僅是一個位元組數組而已,大大減少了對象數量,并降低了記憶體占用。這種級别比MEMORY_ONLY多出來的性能開銷,主要就是序列化與反序列化的開銷。但是後續算子可以基于純記憶體進行操作,是以性能總體還是比較高的。此外,可能發生的問題同上,如果RDD中的資料量過多的話,還是可能會導緻OOM記憶體溢出的異常。
  • 如果純記憶體的級别都無法使用,那麼建議使用MEMORY_AND_DISK_SER政策,而不是MEMORY_AND_DISK政策。因為既然到了這一步,就說明RDD的資料量很大,記憶體無法完全放下。序列化後的資料比較少,可以節省記憶體和磁盤的空間開銷。同時該政策會優先盡量嘗試将資料緩存在記憶體中,記憶體緩存不下才會寫入磁盤。
  • 通常不建議使用DISK_ONLY和字尾為_2的級别:因為完全基于磁盤檔案進行資料的讀寫,會導緻性能急劇降低,有時還不如重新計算一次所有RDD。字尾為_2的級别,必須将所有資料都複制一份副本,并發送到其他節點上,資料複制以及網絡傳輸會導緻較大的性能開銷,除非是要求作業的高可用性,否則不建議使用。

原則四:盡量避免使用shuffle類算子

如果有可能的話,要盡量避免使用shuffle類算子。因為Spark作業運作過程中,最消耗性能的地方就是shuffle過程。shuffle過程,簡單來說,就是将分布在叢集中多個節點上的同一個key,拉取到同一個節點上,進行聚合或join等操作。比如reduceByKey、join等算子,都會觸發shuffle操作。

shuffle過程中,各個節點上的相同key都會先寫入本地磁盤檔案中,然後其他節點需要通過網絡傳輸拉取各個節點上的磁盤檔案中的相同key。而且相同key都拉取到同一個節點進行聚合操作時,還有可能會因為一個節點上處理的key過多,導緻記憶體不夠存放,進而溢寫到磁盤檔案中。是以在shuffle過程中,可能會發生大量的磁盤檔案讀寫的IO操作,以及資料的網絡傳輸操作。磁盤IO和網絡資料傳輸也是shuffle性能較差的主要原因。

是以在我們的開發過程中,能避免則盡可能避免使用reduceByKey、join、distinct、repartition等會進行shuffle的算子,盡量使用map類的非shuffle算子。這樣的話,沒有shuffle操作或者僅有較少shuffle操作的Spark作業,可以大大減少性能開銷。

Broadcast與map進行join代碼示例

// 傳統的join操作會導緻shuffle操作。
// 因為兩個RDD中,相同的key都需要通過網絡拉取到一個節點上,由一個task進行join操作。
val rdd3 = rdd1.join(rdd2)

// Broadcast+map的join操作,不會導緻shuffle操作。
// 使用Broadcast将一個資料量較小的RDD作為廣播變量。
val rdd2Data = rdd2.collect()
val rdd2DataBroadcast = sc.broadcast(rdd2Data)

// 在rdd1.map算子中,可以從rdd2DataBroadcast中,擷取rdd2的所有資料。
// 然後進行周遊,如果發現rdd2中某條資料的key與rdd1的目前資料的key是相同的,那麼就判定可以進行join。
// 此時就可以根據自己需要的方式,将rdd1目前資料與rdd2中可以連接配接的資料,拼接在一起(String或Tuple)。
val rdd3 = rdd1.map(rdd2DataBroadcast...)

// 注意,以上操作,建議僅僅在rdd2的資料量比較少(比如幾百M,或者一兩G)的情況下使用。
// 因為每個Executor的記憶體中,都會駐留一份rdd2的全量資料。      

原則五:使用map-side預聚合的shuffle操作

如果因為業務需要,一定要使用shuffle操作,無法用map類的算子來替代,那麼盡量使用可以map-side預聚合的算子。

所謂的map-side預聚合,說的是在每個節點本地對相同的key進行一次聚合操作,類似于MapReduce中的本地combiner。map-side預聚合之後,每個節點本地就隻會有一條相同的key,因為多條相同的key都被聚合起來了。其他節點在拉取所有節點上的相同key時,就會大大減少需要拉取的資料數量,進而也就減少了磁盤IO以及網絡傳輸開銷。通常來說,在可能的情況下,建議使用reduceByKey或者aggregateByKey算子來替代掉groupByKey算子。因為reduceByKey和aggregateByKey算子都會使用使用者自定義的函數對每個節點本地的相同key進行預聚合。而groupByKey算子是不會進行預聚合的,全量的資料會在叢集的各個節點之間分發和傳輸,性能相對來說比較差。

比如如下兩幅圖,就是典型的例子,分别基于reduceByKey和groupByKey進行單詞計數。其中第一張圖是groupByKey的原理圖,可以看到,沒有進行任何本地聚合時,所有資料都會在叢集節點之間傳輸;第二張圖是reduceByKey的原理圖,可以看到,每個節點本地的相同key資料,都進行了預聚合,然後才傳輸到其他節點上進行全局聚合。

spark性能優化指南

group-by-key-wordcount

spark性能優化指南

reduce-by-key-wordcount

原則六:使用高性能的算子

除了shuffle相關的算子有優化原則之外,其他的算子也都有着相應的優化原則。

使用reduceByKey/aggregateByKey替代groupByKey

詳情見“原則五:使用map-side預聚合的shuffle操作”。

使用mapPartitions替代普通map

mapPartitions類的算子,一次函數調用會處理一個partition所有的資料,而不是一次函數調用處理一條,性能相對來說會高一些。但是有的時候,使用mapPartitions會出現OOM(記憶體溢出)的問題。因為單次函數調用就要處理掉一個partition所有的資料,如果記憶體不夠,垃圾回收時是無法回收掉太多對象的,很可能出現OOM異常。是以使用這類操作時要慎重!

使用foreachPartitions替代foreach

原理類似于“使用mapPartitions替代map”,也是一次函數調用處理一個partition的所有資料,而不是一次函數調用處理一條資料。在實踐中發現,foreachPartitions類的算子,對性能的提升還是很有幫助的。比如在foreach函數中,将RDD中所有資料寫MySQL,那麼如果是普通的foreach算子,就會一條資料一條資料地寫,每次函數調用可能就會建立一個資料庫連接配接,此時就勢必會頻繁地建立和銷毀資料庫連接配接,性能是非常低下;但是如果用foreachPartitions算子一次性處理一個partition的資料,那麼對于每個partition,隻要建立一個資料庫連接配接即可,然後執行批量插入操作,此時性能是比較高的。實踐中發現,對于1萬條左右的資料量寫MySQL,性能可以提升30%以上。

使用filter之後進行coalesce操作

通常對一個RDD執行filter算子過濾掉RDD中較多資料後(比如30%以上的資料),建議使用coalesce算子,手動減少RDD的partition數量,将RDD中的資料壓縮到更少的partition中去。因為filter之後,RDD的每個partition中都會有很多資料被過濾掉,此時如果照常進行後續的計算,其實每個task處理的partition中的資料量并不是很多,有一點資源浪費,而且此時處理的task越多,可能速度反而越慢。是以用coalesce減少partition數量,将RDD中的資料壓縮到更少的partition之後,隻要使用更少的task即可處理完所有的partition。在某些場景下,對于性能的提升會有一定的幫助。

使用repartitionAndSortWithinPartitions替代repartition與sort類操作

repartitionAndSortWithinPartitions是Spark官網推薦的一個算子,官方建議,如果需要在repartition重分區之後,還要進行排序,建議直接使用repartitionAndSortWithinPartitions算子。因為該算子可以一邊進行重分區的shuffle操作,一邊進行排序。shuffle與sort兩個操作同時進行,比先shuffle再sort來說,性能可能是要高的。

原則七:廣播大變量

有時在開發過程中,會遇到需要在算子函數中使用外部變量的場景(尤其是大變量,比如100M以上的大集合),那麼此時就應該使用Spark的廣播(Broadcast)功能來提升性能。

在算子函數中使用到外部變量時,預設情況下,Spark會将該變量複制多個副本,通過網絡傳輸到task中,此時每個task都有一個變量副本。如果變量本身比較大的話(比如100M,甚至1G),那麼大量的變量副本在網絡中傳輸的性能開銷,以及在各個節點的Executor中占用過多記憶體導緻的頻繁GC,都會極大地影響性能。

是以對于上述情況,如果使用的外部變量比較大,建議使用Spark的廣播功能,對該變量進行廣播。廣播後的變量,會保證每個Executor的記憶體中,隻駐留一份變量副本,而Executor中的task執行時共享該Executor中的那份變量副本。這樣的話,可以大大減少變量副本的數量,進而減少網絡傳輸的性能開銷,并減少對Executor記憶體的占用開銷,降低GC的頻率。

廣播大變量的代碼示例

// 以下代碼在算子函數中,使用了外部的變量。
// 此時沒有做任何特殊操作,每個task都會有一份list1的副本。
val list1 = ...
rdd1.map(list1...)

// 以下代碼将list1封裝成了Broadcast類型的廣播變量。
// 在算子函數中,使用廣播變量時,首先會判斷目前task所在Executor記憶體中,是否有變量副本。
// 如果有則直接使用;如果沒有則從Driver或者其他Executor節點上遠端拉取一份放到本地Executor記憶體中。
// 每個Executor記憶體中,就隻會駐留一份廣播變量副本。
val list1 = ...
val list1Broadcast = sc.broadcast(list1)
rdd1.map(list1Broadcast...)      

原則八:使用Kryo優化序列化性能

在Spark中,主要有三個地方涉及到了序列化:

  • 在算子函數中使用到外部變量時,該變量會被序列化後進行網絡傳輸(見“原則七:廣播大變量”中的講解)。
  • 将自定義的類型作為RDD的泛型類型時(比如JavaRDD,Student是自定義類型),所有自定義類型對象,都會進行序列化。是以這種情況下,也要求自定義的類必須實作Serializable接口。
  • 使用可序列化的持久化政策時(比如MEMORY_ONLY_SER),Spark會将RDD中的每個partition都序列化成一個大的位元組數組。

對于這三種出現序列化的地方,我們都可以通過使用Kryo序列化類庫,來優化序列化和反序列化的性能。Spark預設使用的是Java的序列化機制,也就是ObjectOutputStream/ObjectInputStream API來進行序列化和反序列化。但是Spark同時支援使用Kryo序列化庫,Kryo序列化類庫的性能比Java序列化類庫的性能要高很多。官方介紹,Kryo序列化機制比Java序列化機制,性能高10倍左右。Spark之是以預設沒有使用Kryo作為序列化類庫,是因為Kryo要求最好要注冊所有需要進行序列化的自定義類型,是以對于開發者來說,這種方式比較麻煩。

以下是使用Kryo的代碼示例,我們隻要設定序列化類,再注冊要序列化的自定義類型即可(比如算子函數中使用到的外部變量類型、作為RDD泛型類型的自定義類型等):

// 建立SparkConf對象。
val conf = new SparkConf().setMaster(...).setAppName(...)
// 設定序列化器為KryoSerializer。
conf.set("spark.serializer", "org.apache.spark.serializer.KryoSerializer")
// 注冊要序列化的自定義類型。
conf.registerKryoClasses(Array(classOf[MyClass1], classOf[MyClass2]))      

資源調優

調優概述

在開發完Spark作業之後,就該為作業配置合适的資源了。Spark的資源參數,基本都可以在spark-submit指令中作為參數設定。很多Spark初學者,通常不知道該設定哪些必要的參數,以及如何設定這些參數,最後就隻能胡亂設定,甚至壓根兒不設定。資源參數設定的不合理,可能會導緻沒有充分利用叢集資源,作業運作會極其緩慢;或者設定的資源過大,隊列沒有足夠的資源來提供,進而導緻各種異常。總之,無論是哪種情況,都會導緻Spark作業的運作效率低下,甚至根本無法運作。是以我們必須對Spark作業的資源使用原理有一個清晰的認識,并知道在Spark作業運作過程中,有哪些資源參數是可以設定的,以及如何設定合适的參數值。

Spark作業基本運作原理

spark性能優化指南

spark-base-mech

詳細原理見上圖。我們使用spark-submit送出一個Spark作業之後,這個作業就會啟動一個對應的Driver程序。根據你使用的部署模式(deploy-mode)不同,Driver程序可能在本地啟動,也可能在叢集中某個工作節點上啟動。Driver程序本身會根據我們設定的參數,占有一定數量的記憶體和CPU core。而Driver程序要做的第一件事情,就是向叢集管理器(可以是Spark Standalone叢集,也可以是其他的資源管理叢集,美團•大衆點評使用的是YARN作為資源管理叢集)申請運作Spark作業需要使用的資源,這裡的資源指的就是Executor程序。YARN叢集管理器會根據我們為Spark作業設定的資源參數,在各個工作節點上,啟動一定數量的Executor程序,每個Executor程序都占有一定數量的記憶體和CPU core。

在申請到了作業執行所需的資源之後,Driver程序就會開始排程和執行我們編寫的作業代碼了。Driver程序會将我們編寫的Spark作業代碼分拆為多個stage,每個stage執行一部分代碼片段,并為每個stage建立一批task,然後将這些task配置設定到各個Executor程序中執行。task是最小的計算單元,負責執行一模一樣的計算邏輯(也就是我們自己編寫的某個代碼片段),隻是每個task處理的資料不同而已。一個stage的所有task都執行完畢之後,會在各個節點本地的磁盤檔案中寫入計算中間結果,然後Driver就會排程運作下一個stage。下一個stage的task的輸入資料就是上一個stage輸出的中間結果。如此循環往複,直到将我們自己編寫的代碼邏輯全部執行完,并且計算完所有的資料,得到我們想要的結果為止。

Spark是根據shuffle類算子來進行stage的劃分。如果我們的代碼中執行了某個shuffle類算子(比如reduceByKey、join等),那麼就會在該算子處,劃分出一個stage界限來。可以大緻了解為,shuffle算子執行之前的代碼會被劃分為一個stage,shuffle算子執行以及之後的代碼會被劃分為下一個stage。是以一個stage剛開始執行的時候,它的每個task可能都會從上一個stage的task所在的節點,去通過網絡傳輸拉取需要自己處理的所有key,然後對拉取到的所有相同的key使用我們自己編寫的算子函數執行聚合操作(比如reduceByKey()算子接收的函數)。這個過程就是shuffle。

當我們在代碼中執行了cache/persist等持久化操作時,根據我們選擇的持久化級别的不同,每個task計算出來的資料也會儲存到Executor程序的記憶體或者所在節點的磁盤檔案中。

是以Executor的記憶體主要分為三塊:第一塊是讓task執行我們自己編寫的代碼時使用,預設是占Executor總記憶體的20%;第二塊是讓task通過shuffle過程拉取了上一個stage的task的輸出後,進行聚合等操作時使用,預設也是占Executor總記憶體的20%;第三塊是讓RDD持久化時使用,預設占Executor總記憶體的60%。

task的執行速度是跟每個Executor程序的CPU core數量有直接關系的。一個CPU core同一時間隻能執行一個線程。而每個Executor程序上配置設定到的多個task,都是以每個task一條線程的方式,多線程并發運作的。如果CPU core數量比較充足,而且配置設定到的task數量比較合理,那麼通常來說,可以比較快速和高效地執行完這些task線程。

以上就是Spark作業的基本運作原理的說明,大家可以結合上圖來了解。了解作業基本原理,是我們進行資源參數調優的基本前提。

資源參數調優

了解完了Spark作業運作的基本原理之後,對資源相關的參數就容易了解了。所謂的Spark資源參數調優,其實主要就是對Spark運作過程中各個使用資源的地方,通過調節各種參數,來優化資源使用的效率,進而提升Spark作業的執行性能。以下參數就是Spark中主要的資源參數,每個參數都對應着作業運作原理中的某個部分,我們同時也給出了一個調優的參考值。

num-executors

  • 參數說明:該參數用于設定Spark作業總共要用多少個Executor程序來執行。Driver在向YARN叢集管理器申請資源時,YARN叢集管理器會盡可能按照你的設定來在叢集的各個工作節點上,啟動相應數量的Executor程序。這個參數非常之重要,如果不設定的話,預設隻會給你啟動少量的Executor程序,此時你的Spark作業的運作速度是非常慢的。
  • 參數調優建議:每個Spark作業的運作一般設定50~100個左右的Executor程序比較合适,設定太少或太多的Executor程序都不好。設定的太少,無法充分利用叢集資源;設定的太多的話,大部分隊列可能無法給予充分的資源。

executor-memory

  • 參數說明:該參數用于設定每個Executor程序的記憶體。Executor記憶體的大小,很多時候直接決定了Spark作業的性能,而且跟常見的JVM OOM異常,也有直接的關聯。
  • 參數調優建議:每個Executor程序的記憶體設定4G到8G較為合适。但是這隻是一個參考值,具體的設定還是得根據不同部門的資源隊列來定。可以看看自己團隊的資源隊列的最大記憶體限制是多少,num-executors乘以executor-memory,是不能超過隊列的最大記憶體量的。此外,如果你是跟團隊裡其他人共享這個資源隊列,那麼申請的記憶體量最好不要超過資源隊列最大總記憶體的1/3~1/2,避免你自己的Spark作業占用了隊列所有的資源,導緻别的同學的作業無法運作。

executor-cores

  • 參數說明:該參數用于設定每個Executor程序的CPU core數量。這個參數決定了每個Executor程序并行執行task線程的能力。因為每個CPU core同一時間隻能執行一個task線程,是以每個Executor程序的CPU core數量越多,越能夠快速地執行完配置設定給自己的所有task線程。
  • 參數調優建議:Executor的CPU core數量設定為2~4個較為合适。同樣得根據不同部門的資源隊列來定,可以看看自己的資源隊列的最大CPU core限制是多少,再依據設定的Executor數量,來決定每個Executor程序可以配置設定到幾個CPU core。同樣建議,如果是跟他人共享這個隊列,那麼num-executors * executor-cores不要超過隊列總CPU core的1/3~1/2左右比較合适,也是避免影響其他同學的作業運作。

driver-memory

  • 參數說明:該參數用于設定Driver程序的記憶體。
  • 參數調優建議:Driver的記憶體通常來說不設定,或者設定1G左右應該就夠了。唯一需要注意的一點是,如果需要使用collect算子将RDD的資料全部拉取到Driver上進行處理,那麼必須確定Driver的記憶體足夠大,否則會出現OOM記憶體溢出的問題。

spark.default.parallelism

  • 參數說明:該參數用于設定每個stage的預設task數量。這個參數極為重要,如果不設定可能會直接影響你的Spark作業性能。
  • 參數調優建議:Spark作業的預設task數量為500~1000個較為合适。很多同學常犯的一個錯誤就是不去設定這個參數,那麼此時就會導緻Spark自己根據底層HDFS的block數量來設定task的數量,預設是一個HDFS block對應一個task。通常來說,Spark預設設定的數量是偏少的(比如就幾十個task),如果task數量偏少的話,就會導緻你前面設定好的Executor的參數都前功盡棄。試想一下,無論你的Executor程序有多少個,記憶體和CPU有多大,但是task隻有1個或者10個,那麼90%的Executor程序可能根本就沒有task執行,也就是白白浪費了資源!是以Spark官網建議的設定原則是,設定該參數為num-executors * executor-cores的2~3倍較為合适,比如Executor的總CPU core數量為300個,那麼設定1000個task是可以的,此時可以充分地利用Spark叢集的資源。

spark.storage.memoryFraction

  • 參數說明:該參數用于設定RDD持久化資料在Executor記憶體中能占的比例,預設是0.6。也就是說,預設Executor 60%的記憶體,可以用來儲存持久化的RDD資料。根據你選擇的不同的持久化政策,如果記憶體不夠時,可能資料就不會持久化,或者資料會寫入磁盤。
  • 參數調優建議:如果Spark作業中,有較多的RDD持久化操作,該參數的值可以适當提高一些,保證持久化的資料能夠容納在記憶體中。避免記憶體不夠緩存所有的資料,導緻資料隻能寫入磁盤中,降低了性能。但是如果Spark作業中的shuffle類操作比較多,而持久化操作比較少,那麼這個參數的值适當降低一些比較合适。此外,如果發現作業由于頻繁的gc導緻運作緩慢(通過spark web ui可以觀察到作業的gc耗時),意味着task執行使用者代碼的記憶體不夠用,那麼同樣建議調低這個參數的值。

spark.shuffle.memoryFraction

  • 參數說明:該參數用于設定shuffle過程中一個task拉取到上個stage的task的輸出後,進行聚合操作時能夠使用的Executor記憶體的比例,預設是0.2。也就是說,Executor預設隻有20%的記憶體用來進行該操作。shuffle操作在進行聚合時,如果發現使用的記憶體超出了這個20%的限制,那麼多餘的資料就會溢寫到磁盤檔案中去,此時就會極大地降低性能。
  • 參數調優建議:如果Spark作業中的RDD持久化操作較少,shuffle操作較多時,建議降低持久化操作的記憶體占比,提高shuffle操作的記憶體占比比例,避免shuffle過程中資料過多時記憶體不夠用,必須溢寫到磁盤上,降低了性能。此外,如果發現作業由于頻繁的gc導緻運作緩慢,意味着task執行使用者代碼的記憶體不夠用,那麼同樣建議調低這個參數的值。

資源參數的調優,沒有一個固定的值,需要同學們根據自己的實際情況(包括Spark作業中的shuffle操作數量、RDD持久化操作數量以及spark web ui中顯示的作業gc情況),同時參考本篇文章中給出的原理以及調優建議,合理地設定上述參數。

資源參數參考示例

以下是一份spark-submit指令的示例,大家可以參考一下,并根據自己的實際情況進行調節:

./bin/spark-submit \
  --master yarn-cluster \
  --num-executors 100 \
  --executor-memory 6G \
  --executor-cores 4 \
  --driver-memory 1G \
  --conf spark.default.parallelism=1000 \
  --conf spark.storage.memoryFraction=0.5 \
  --conf spark.shuffle.memoryFraction=0.3 \      

資料傾斜調優

調優概述

有的時候,我們可能會遇到大資料計算中一個最棘手的問題——資料傾斜,此時Spark作業的性能會比期望差很多。資料傾斜調優,就是使用各種技術方案解決不同類型的資料傾斜問題,以保證Spark作業的性能。

資料傾斜發生時的現象

絕大多數task執行得都非常快,但個别task執行極慢。比如,總共有1000個task,997個task都在1分鐘之内執行完了,但是剩餘兩三個task卻要一兩個小時。這種情況很常見。

原本能夠正常執行的Spark作業,某天突然報出OOM(記憶體溢出)異常,觀察異常棧,是我們寫的業務代碼造成的。這種情況比較少見。

資料傾斜發生的原理

資料傾斜的原理很簡單:在進行shuffle的時候,必須将各個節點上相同的key拉取到某個節點上的一個task來進行處理,比如按照key進行聚合或join等操作。此時如果某個key對應的資料量特别大的話,就會發生資料傾斜。比如大部分key對應10條資料,但是個别key卻對應了100萬條資料,那麼大部分task可能就隻會配置設定到10條資料,然後1秒鐘就運作完了;但是個别task可能配置設定到了100萬資料,要運作一兩個小時。是以,整個Spark作業的運作進度是由運作時間最長的那個task決定的。

是以出現資料傾斜的時候,Spark作業看起來會運作得非常緩慢,甚至可能因為某個task處理的資料量過大導緻記憶體溢出。

下圖就是一個很清晰的例子:hello這個key,在三個節點上對應了總共7條資料,這些資料都會被拉取到同一個task中進行處理;而world和you這兩個key分别才對應1條資料,是以另外兩個task隻要分别處理1條資料即可。此時第一個task的運作時間可能是另外兩個task的7倍,而整個stage的運作速度也由運作最慢的那個task所決定。

spark性能優化指南

skwed-mech

如何定位導緻資料傾斜的代碼

資料傾斜隻會發生在shuffle過程中。這裡給大家羅列一些常用的并且可能會觸發shuffle操作的算子:distinct、groupByKey、reduceByKey、aggregateByKey、join、cogroup、repartition等。出現資料傾斜時,可能就是你的代碼中使用了這些算子中的某一個所導緻的。

某個task執行特别慢的情況

首先要看的,就是資料傾斜發生在第幾個stage中。

如果是用yarn-client模式送出,那麼本地是直接可以看到log的,可以在log中找到目前運作到了第幾個stage;如果是用yarn-cluster模式送出,則可以通過Spark Web UI來檢視目前運作到了第幾個stage。此外,無論是使用yarn-client模式還是yarn-cluster模式,我們都可以在Spark Web UI上深入看一下目前這個stage各個task配置設定的資料量,進而進一步确定是不是task配置設定的資料不均勻導緻了資料傾斜。

比如下圖中,倒數第三列顯示了每個task的運作時間。明顯可以看到,有的task運作特别快,隻需要幾秒鐘就可以運作完;而有的task運作特别慢,需要幾分鐘才能運作完,此時單從運作時間上看就已經能夠确定發生資料傾斜了。此外,倒數第一列顯示了每個task處理的資料量,明顯可以看到,運作時間特别短的task隻需要處理幾百KB的資料即可,而運作時間特别長的task需要處理幾千KB的資料,處理的資料量差了10倍。此時更加能夠确定是發生了資料傾斜。

spark性能優化指南

shuffle-skwed-web-ui-demo

知道資料傾斜發生在哪一個stage之後,接着我們就需要根據stage劃分原理,推算出來發生傾斜的那個stage對應代碼中的哪一部分,這部分代碼中肯定會有一個shuffle類算子。精準推算stage與代碼的對應關系,需要對Spark的源碼有深入的了解,這裡我們可以介紹一個相對簡單實用的推算方法:隻要看到Spark代碼中出現了一個shuffle類算子或者是Spark SQL的SQL語句中出現了會導緻shuffle的語句(比如group by語句),那麼就可以判定,以那個地方為界限劃分出了前後兩個stage。

這裡我們就以Spark最基礎的入門程式——單詞計數來舉例,如何用最簡單的方法大緻推算出一個stage對應的代碼。如下示例,在整個代碼中,隻有一個reduceByKey是會發生shuffle的算子,是以就可以認為,以這個算子為界限,會劃分出前後兩個stage。

  • stage0,主要是執行從textFile到map操作,以及執行shuffle write操作。shuffle write操作,我們可以簡單了解為對pairs RDD中的資料進行分區操作,每個task處理的資料中,相同的key會寫入同一個磁盤檔案内。
  • stage1,主要是執行從reduceByKey到collect操作,stage1的各個task一開始運作,就會首先執行shuffle read操作。執行shuffle read操作的task,會從stage0的各個task所在節點拉取屬于自己處理的那些key,然後對同一個key進行全局性的聚合或join等操作,在這裡就是對key的value值進行累加。stage1在執行完reduceByKey算子之後,就計算出了最終的wordCounts RDD,然後會執行collect算子,将所有資料拉取到Driver上,供我們周遊和列印輸出。
val conf = new SparkConf()
val sc = new SparkContext(conf)

val lines = sc.textFile("hdfs://...")
val words = lines.flatMap(_.split(" "))
val pairs = words.map((_, 1))
val wordCounts = pairs.reduceByKey(_ + _)

wordCounts.collect().foreach(println(_))      

通過對單詞計數程式的分析,希望能夠讓大家了解最基本的stage劃分的原理,以及stage劃分後shuffle操作是如何在兩個stage的邊界處執行的。然後我們就知道如何快速定位出發生資料傾斜的stage對應代碼的哪一個部分了。比如我們在Spark Web UI或者本地log中發現,stage1的某幾個task執行得特别慢,判定stage1出現了資料傾斜,那麼就可以回到代碼中定位出stage1主要包括了reduceByKey這個shuffle類算子,此時基本就可以确定是由educeByKey算子導緻的資料傾斜問題。比如某個單詞出現了100萬次,其他單詞才出現10次,那麼stage1的某個task就要處理100萬資料,整個stage的速度就會被這個task拖慢。

某個task莫名其妙記憶體溢出的情況

這種情況下去定位出問題的代碼就比較容易了。我們建議直接看yarn-client模式下本地log的異常棧,或者是通過YARN檢視yarn-cluster模式下的log中的異常棧。一般來說,通過異常棧資訊就可以定位到你的代碼中哪一行發生了記憶體溢出。然後在那行代碼附近找找,一般也會有shuffle類算子,此時很可能就是這個算子導緻了資料傾斜。

但是大家要注意的是,不能單純靠偶然的記憶體溢出就判定發生了資料傾斜。因為自己編寫的代碼的bug,以及偶然出現的資料異常,也可能會導緻記憶體溢出。是以還是要按照上面所講的方法,通過Spark Web UI檢視報錯的那個stage的各個task的運作時間以及配置設定的資料量,才能确定是否是由于資料傾斜才導緻了這次記憶體溢出。

檢視導緻資料傾斜的key的資料分布情況

知道了資料傾斜發生在哪裡之後,通常需要分析一下那個執行了shuffle操作并且導緻了資料傾斜的RDD/Hive表,檢視一下其中key的分布情況。這主要是為之後選擇哪一種技術方案提供依據。針對不同的key分布與不同的shuffle算子組合起來的各種情況,可能需要選擇不同的技術方案來解決。

此時根據你執行操作的情況不同,可以有很多種檢視key分布的方式:

  • 如果是Spark SQL中的group by、join語句導緻的資料傾斜,那麼就查詢一下SQL中使用的表的key分布情況。
  • 如果是對Spark RDD執行shuffle算子導緻的資料傾斜,那麼可以在Spark作業中加入檢視key分布的代碼,比如RDD.countByKey()。然後對統計出來的各個key出現的次數,collect/take到用戶端列印一下,就可以看到key的分布情況。

舉例來說,對于上面所說的單詞計數程式,如果确定了是stage1的reduceByKey算子導緻了資料傾斜,那麼就應該看看進行reduceByKey操作的RDD中的key分布情況,在這個例子中指的就是pairs RDD。如下示例,我們可以先對pairs采樣10%的樣本資料,然後使用countByKey算子統計出每個key出現的次數,最後在用戶端周遊和列印樣本資料中各個key的出現次數。

val sampledPairs = pairs.sample(false, 0.1)
val sampledWordCounts = sampledPairs.countByKey()
sampledWordCounts.foreach(println(_))      

資料傾斜的解決方案

解決方案一:使用Hive ETL預處理資料

方案适用場景:導緻資料傾斜的是Hive表。如果該Hive表中的資料本身很不均勻(比如某個key對應了100萬資料,其他key才對應了10條資料),而且業務場景需要頻繁使用Spark對Hive表執行某個分析操作,那麼比較适合使用這種技術方案。

方案實作思路:此時可以評估一下,是否可以通過Hive來進行資料預處理(即通過Hive ETL預先對資料按照key進行聚合,或者是預先和其他表進行join),然後在Spark作業中針對的資料源就不是原來的Hive表了,而是預處理後的Hive表。此時由于資料已經預先進行過聚合或join操作了,那麼在Spark作業中也就不需要使用原先的shuffle類算子執行這類操作了。

方案實作原理:這種方案從根源上解決了資料傾斜,因為徹底避免了在Spark中執行shuffle類算子,那麼肯定就不會有資料傾斜的問題了。但是這裡也要提醒一下大家,這種方式屬于治标不治本。因為畢竟資料本身就存在分布不均勻的問題,是以Hive ETL中進行group by或者join等shuffle操作時,還是會出現資料傾斜,導緻Hive ETL的速度很慢。我們隻是把資料傾斜的發生提前到了Hive ETL中,避免Spark程式發生資料傾斜而已。

方案優點:實作起來簡單便捷,效果還非常好,完全規避掉了資料傾斜,Spark作業的性能會大幅度提升。

方案缺點:治标不治本,Hive ETL中還是會發生資料傾斜。

方案實踐經驗:在一些Java系統與Spark結合使用的項目中,會出現Java代碼頻繁調用Spark作業的場景,而且對Spark作業的執行性能要求很高,就比較适合使用這種方案。将資料傾斜提前到上遊的Hive ETL,每天僅執行一次,隻有那一次是比較慢的,而之後每次Java調用Spark作業時,執行速度都會很快,能夠提供更好的使用者體驗。

項目實踐經驗:在美團·點評的互動式使用者行為分析系統中使用了這種方案,該系統主要是允許使用者通過Java Web系統送出資料分析統計任務,後端通過Java送出Spark作業進行資料分析統計。要求Spark作業速度必須要快,盡量在10分鐘以内,否則速度太慢,使用者體驗會很差。是以我們将有些Spark作業的shuffle操作提前到了Hive ETL中,進而讓Spark直接使用預處理的Hive中間表,盡可能地減少Spark的shuffle操作,大幅度提升了性能,将部分作業的性能提升了6倍以上。

解決方案二:過濾少數導緻傾斜的key

方案适用場景:如果發現導緻傾斜的key就少數幾個,而且對計算本身的影響并不大的話,那麼很适合使用這種方案。比如99%的key就對應10條資料,但是隻有一個key對應了100萬資料,進而導緻了資料傾斜。

方案實作思路:如果我們判斷那少數幾個資料量特别多的key,對作業的執行和計算結果不是特别重要的話,那麼幹脆就直接過濾掉那少數幾個key。比如,在Spark SQL中可以使用where子句過濾掉這些key或者在Spark Core中對RDD執行filter算子過濾掉這些key。如果需要每次作業執行時,動态判定哪些key的資料量最多然後再進行過濾,那麼可以使用sample算子對RDD進行采樣,然後計算出每個key的數量,取資料量最多的key過濾掉即可。

方案實作原理:将導緻資料傾斜的key給過濾掉之後,這些key就不會參與計算了,自然不可能産生資料傾斜。

方案優點:實作簡單,而且效果也很好,可以完全規避掉資料傾斜。

方案缺點:适用場景不多,大多數情況下,導緻傾斜的key還是很多的,并不是隻有少數幾個。

方案實踐經驗:在項目中我們也采用過這種方案解決資料傾斜。有一次發現某一天Spark作業在運作的時候突然OOM了,追查之後發現,是Hive表中的某一個key在那天資料異常,導緻資料量暴增。是以就采取每次執行前先進行采樣,計算出樣本中資料量最大的幾個key之後,直接在程式中将那些key給過濾掉。

解決方案三:提高shuffle操作的并行度

方案适用場景:如果我們必須要對資料傾斜迎難而上,那麼建議優先使用這種方案,因為這是處理資料傾斜最簡單的一種方案。

方案實作思路:在對RDD執行shuffle算子時,給shuffle算子傳入一個參數,比如reduceByKey(1000),該參數就設定了這個shuffle算子執行時shuffle read task的數量。對于Spark SQL中的shuffle類語句,比如group by、join等,需要設定一個參數,即spark.sql.shuffle.partitions,該參數代表了shuffle read task的并行度,該值預設是200,對于很多場景來說都有點過小。

方案實作原理:增加shuffle read task的數量,可以讓原本配置設定給一個task的多個key配置設定給多個task,進而讓每個task處理比原來更少的資料。舉例來說,如果原本有5個key,每個key對應10條資料,這5個key都是配置設定給一個task的,那麼這個task就要處理50條資料。而增加了shuffle read task以後,每個task就配置設定到一個key,即每個task就處理10條資料,那麼自然每個task的執行時間都會變短了。具體原理如下圖所示。

方案優點:實作起來比較簡單,可以有效緩解和減輕資料傾斜的影響。

方案缺點:隻是緩解了資料傾斜而已,沒有徹底根除問題,根據實踐經驗來看,其效果有限。

方案實踐經驗:該方案通常無法徹底解決資料傾斜,因為如果出現一些極端情況,比如某個key對應的資料量有100萬,那麼無論你的task數量增加到多少,這個對應着100萬資料的key肯定還是會配置設定到一個task中去處理,是以注定還是會發生資料傾斜的。是以這種方案隻能說是在發現資料傾斜時嘗試使用的第一種手段,嘗試去用嘴簡單的方法緩解資料傾斜而已,或者是和其他方案結合起來使用。

spark性能優化指南

shuffle-skwed-add-partition

解決方案四:兩階段聚合(局部聚合+全局聚合)

方案适用場景:對RDD執行reduceByKey等聚合類shuffle算子或者在Spark SQL中使用group by語句進行分組聚合時,比較适用這種方案。

方案實作思路:這個方案的核心實作思路就是進行兩階段聚合。第一次是局部聚合,先給每個key都打上一個随機數,比如10以内的随機數,此時原先一樣的key就變成不一樣的了,比如(hello, 1) (hello, 1) (hello, 1) (hello, 1),就會變成(1_hello, 1) (1_hello, 1) (2_hello, 1) (2_hello, 1)。接着對打上随機數後的資料,執行reduceByKey等聚合操作,進行局部聚合,那麼局部聚合結果,就會變成了(1_hello, 2) (2_hello, 2)。然後将各個key的字首給去掉,就會變成(hello,2)(hello,2),再次進行全局聚合操作,就可以得到最終結果了,比如(hello, 4)。

方案實作原理:将原本相同的key通過附加随機字首的方式,變成多個不同的key,就可以讓原本被一個task處理的資料分散到多個task上去做局部聚合,進而解決單個task處理資料量過多的問題。接着去除掉随機字首,再次進行全局聚合,就可以得到最終的結果。具體原理見下圖。

方案優點:對于聚合類的shuffle操作導緻的資料傾斜,效果是非常不錯的。通常都可以解決掉資料傾斜,或者至少是大幅度緩解資料傾斜,将Spark作業的性能提升數倍以上。

方案缺點:僅僅适用于聚合類的shuffle操作,适用範圍相對較窄。如果是join類的shuffle操作,還得用其他的解決方案。

spark性能優化指南

shuffle-skwed-two-phase-aggr

// 第一步,給RDD中的每個key都打上一個随機字首。
JavaPairRDD<String, Long> randomPrefixRdd = rdd.mapToPair(
        new PairFunction<Tuple2<Long,Long>, String, Long>() {
            private static final long serialVersionUID = 1L;
            @Override
            public Tuple2<String, Long> call(Tuple2<Long, Long> tuple)
                    throws Exception {
                Random random = new Random();
                int prefix = random.nextInt(10);
                return new Tuple2<String, Long>(prefix + "_" + tuple._1, tuple._2);
            }
        });

// 第二步,對打上随機字首的key進行局部聚合。
JavaPairRDD<String, Long> localAggrRdd = randomPrefixRdd.reduceByKey(
        new Function2<Long, Long, Long>() {
            private static final long serialVersionUID = 1L;
            @Override
            public Long call(Long v1, Long v2) throws Exception {
                return v1 + v2;
            }
        });

// 第三步,去除RDD中每個key的随機字首。
JavaPairRDD<Long, Long> removedRandomPrefixRdd = localAggrRdd.mapToPair(
        new PairFunction<Tuple2<String,Long>, Long, Long>() {
            private static final long serialVersionUID = 1L;
            @Override
            public Tuple2<Long, Long> call(Tuple2<String, Long> tuple)
                    throws Exception {
                long originalKey = Long.valueOf(tuple._1.split("_")[1]);
                return new Tuple2<Long, Long>(originalKey, tuple._2);
            }
        });

// 第四步,對去除了随機字首的RDD進行全局聚合。
JavaPairRDD<Long, Long> globalAggrRdd = removedRandomPrefixRdd.reduceByKey(
        new Function2<Long, Long, Long>() {
            private static final long serialVersionUID = 1L;
            @Override
            public Long call(Long v1, Long v2) throws Exception {
                return v1 + v2;
            }
        });      

解決方案五:将reduce join轉為map join

方案适用場景:在對RDD使用join類操作,或者是在Spark SQL中使用join語句時,而且join操作中的一個RDD或表的資料量比較小(比如幾百M或者一兩G),比較适用此方案。

方案實作思路:不使用join算子進行連接配接操作,而使用Broadcast變量與map類算子實作join操作,進而完全規避掉shuffle類的操作,徹底避免資料傾斜的發生和出現。将較小RDD中的資料直接通過collect算子拉取到Driver端的記憶體中來,然後對其建立一個Broadcast變量;接着對另外一個RDD執行map類算子,在算子函數内,從Broadcast變量中擷取較小RDD的全量資料,與目前RDD的每一條資料按照連接配接key進行比對,如果連接配接key相同的話,那麼就将兩個RDD的資料用你需要的方式連接配接起來。

方案實作原理:普通的join是會走shuffle過程的,而一旦shuffle,就相當于會将相同key的資料拉取到一個shuffle read task中再進行join,此時就是reduce join。但是如果一個RDD是比較小的,則可以采用廣播小RDD全量資料+map算子來實作與join同樣的效果,也就是map join,此時就不會發生shuffle操作,也就不會發生資料傾斜。具體原理如下圖所示。

方案優點:對join操作導緻的資料傾斜,效果非常好,因為根本就不會發生shuffle,也就根本不會發生資料傾斜。

方案缺點:适用場景較少,因為這個方案隻适用于一個大表和一個小表的情況。畢竟我們需要将小表進行廣播,此時會比較消耗記憶體資源,driver和每個Executor記憶體中都會駐留一份小RDD的全量資料。如果我們廣播出去的RDD資料比較大,比如10G以上,那麼就可能發生記憶體溢出了。是以并不适合兩個都是大表的情況。

spark性能優化指南

shuffle-skwed-map-join

// 首先将資料量比較小的RDD的資料,collect到Driver中來。
List<Tuple2<Long, Row>> rdd1Data = rdd1.collect()
// 然後使用Spark的廣播功能,将小RDD的資料轉換成廣播變量,這樣每個Executor就隻有一份RDD的資料。
// 可以盡可能節省記憶體空間,并且減少網絡傳輸性能開銷。
final Broadcast<List<Tuple2<Long, Row>>> rdd1DataBroadcast = sc.broadcast(rdd1Data);

// 對另外一個RDD執行map類操作,而不再是join類操作。
JavaPairRDD<String, Tuple2<String, Row>> joinedRdd = rdd2.mapToPair(
        new PairFunction<Tuple2<Long,String>, String, Tuple2<String, Row>>() {
            private static final long serialVersionUID = 1L;
            @Override
            public Tuple2<String, Tuple2<String, Row>> call(Tuple2<Long, String> tuple)
                    throws Exception {
                // 在算子函數中,通過廣播變量,擷取到本地Executor中的rdd1資料。
                List<Tuple2<Long, Row>> rdd1Data = rdd1DataBroadcast.value();
                // 可以将rdd1的資料轉換為一個Map,便于後面進行join操作。
                Map<Long, Row> rdd1DataMap = new HashMap<Long, Row>();
                for(Tuple2<Long, Row> data : rdd1Data) {
                    rdd1DataMap.put(data._1, data._2);
                }
                // 擷取目前RDD資料的key以及value。
                String key = tuple._1;
                String value = tuple._2;
                // 從rdd1資料Map中,根據key擷取到可以join到的資料。
                Row rdd1Value = rdd1DataMap.get(key);
                return new Tuple2<String, String>(key, new Tuple2<String, Row>(value, rdd1Value));
            }
        });

// 這裡得提示一下。
// 上面的做法,僅僅适用于rdd1中的key沒有重複,全部是唯一的場景。
// 如果rdd1中有多個相同的key,那麼就得用flatMap類的操作,在進行join的時候不能用map,而是得周遊rdd1所有資料進行join。
// rdd2中每條資料都可能會傳回多條join後的資料。      

解決方案六:采樣傾斜key并分拆join操作

方案适用場景:兩個RDD/Hive表進行join的時候,如果資料量都比較大,無法采用“解決方案五”,那麼此時可以看一下兩個RDD/Hive表中的key分布情況。如果出現資料傾斜,是因為其中某一個RDD/Hive表中的少數幾個key的資料量過大,而另一個RDD/Hive表中的所有key都分布比較均勻,那麼采用這個解決方案是比較合适的。

方案實作思路:

  • 對包含少數幾個資料量過大的key的那個RDD,通過sample算子采樣出一份樣本來,然後統計一下每個key的數量,計算出來資料量最大的是哪幾個key。
  • 然後将這幾個key對應的資料從原來的RDD中拆分出來,形成一個單獨的RDD,并給每個key都打上n以内的随機數作為字首,而不會導緻傾斜的大部分key形成另外一個RDD。
  • 接着将需要join的另一個RDD,也過濾出來那幾個傾斜key對應的資料并形成一個單獨的RDD,将每條資料膨脹成n條資料,這n條資料都按順序附加一個0~n的字首,不會導緻傾斜的大部分key也形成另外一個RDD。
  • 再将附加了随機字首的獨立RDD與另一個膨脹n倍的獨立RDD進行join,此時就可以将原先相同的key打散成n份,分散到多個task中去進行join了。
  • 而另外兩個普通的RDD就照常join即可。
  • 最後将兩次join的結果使用union算子合并起來即可,就是最終的join結果。

方案實作原理:對于join導緻的資料傾斜,如果隻是某幾個key導緻了傾斜,可以将少數幾個key分拆成獨立RDD,并附加随機字首打散成n份去進行join,此時這幾個key對應的資料就不會集中在少數幾個task上,而是分散到多個task進行join了。具體原理見下圖。

方案優點:對于join導緻的資料傾斜,如果隻是某幾個key導緻了傾斜,采用該方式可以用最有效的方式打散key進行join。而且隻需要針對少數傾斜key對應的資料進行擴容n倍,不需要對全量資料進行擴容。避免了占用過多記憶體。

方案缺點:如果導緻傾斜的key特别多的話,比如成千上萬個key都導緻資料傾斜,那麼這種方式也不适合。

spark性能優化指南

shuffle-skwed-sample-expand

// 首先從包含了少數幾個導緻資料傾斜key的rdd1中,采樣10%的樣本資料。
JavaPairRDD<Long, String> sampledRDD = rdd1.sample(false, 0.1);

// 對樣本資料RDD統計出每個key的出現次數,并按出現次數降序排序。
// 對降序排序後的資料,取出top 1或者top 100的資料,也就是key最多的前n個資料。
// 具體取出多少個資料量最多的key,由大家自己決定,我們這裡就取1個作為示範。
JavaPairRDD<Long, Long> mappedSampledRDD = sampledRDD.mapToPair(
        new PairFunction<Tuple2<Long,String>, Long, Long>() {
            private static final long serialVersionUID = 1L;
            @Override
            public Tuple2<Long, Long> call(Tuple2<Long, String> tuple)
                    throws Exception {
                return new Tuple2<Long, Long>(tuple._1, 1L);
            }
        });
JavaPairRDD<Long, Long> countedSampledRDD = mappedSampledRDD.reduceByKey(
        new Function2<Long, Long, Long>() {
            private static final long serialVersionUID = 1L;
            @Override
            public Long call(Long v1, Long v2) throws Exception {
                return v1 + v2;
            }
        });
JavaPairRDD<Long, Long> reversedSampledRDD = countedSampledRDD.mapToPair(
        new PairFunction<Tuple2<Long,Long>, Long, Long>() {
            private static final long serialVersionUID = 1L;
            @Override
            public Tuple2<Long, Long> call(Tuple2<Long, Long> tuple)
                    throws Exception {
                return new Tuple2<Long, Long>(tuple._2, tuple._1);
            }
        });
final Long skewedUserid = reversedSampledRDD.sortByKey(false).take(1).get(0)._2;

// 從rdd1中分拆出導緻資料傾斜的key,形成獨立的RDD。
JavaPairRDD<Long, String> skewedRDD = rdd1.filter(
        new Function<Tuple2<Long,String>, Boolean>() {
            private static final long serialVersionUID = 1L;
            @Override
            public Boolean call(Tuple2<Long, String> tuple) throws Exception {
                return tuple._1.equals(skewedUserid);
            }
        });
// 從rdd1中分拆出不導緻資料傾斜的普通key,形成獨立的RDD。
JavaPairRDD<Long, String> commonRDD = rdd1.filter(
        new Function<Tuple2<Long,String>, Boolean>() {
            private static final long serialVersionUID = 1L;
            @Override
            public Boolean call(Tuple2<Long, String> tuple) throws Exception {
                return !tuple._1.equals(skewedUserid);
            }
        });

// rdd2,就是那個所有key的分布相對較為均勻的rdd。
// 這裡将rdd2中,前面擷取到的key對應的資料,過濾出來,分拆成單獨的rdd,并對rdd中的資料使用flatMap算子都擴容100倍。
// 對擴容的每條資料,都打上0~100的字首。
JavaPairRDD<String, Row> skewedRdd2 = rdd2.filter(
         new Function<Tuple2<Long,Row>, Boolean>() {
            private static final long serialVersionUID = 1L;
            @Override
            public Boolean call(Tuple2<Long, Row> tuple) throws Exception {
                return tuple._1.equals(skewedUserid);
            }
        }).flatMapToPair(new PairFlatMapFunction<Tuple2<Long,Row>, String, Row>() {
            private static final long serialVersionUID = 1L;
            @Override
            public Iterable<Tuple2<String, Row>> call(
                    Tuple2<Long, Row> tuple) throws Exception {
                Random random = new Random();
                List<Tuple2<String, Row>> list = new ArrayList<Tuple2<String, Row>>();
                for(int i = 0; i < 100; i++) {
                    list.add(new Tuple2<String, Row>(i + "_" + tuple._1, tuple._2));
                }
                return list;
            }

        });

// 将rdd1中分拆出來的導緻傾斜的key的獨立rdd,每條資料都打上100以内的随機字首。
// 然後将這個rdd1中分拆出來的獨立rdd,與上面rdd2中分拆出來的獨立rdd,進行join。
JavaPairRDD<Long, Tuple2<String, Row>> joinedRDD1 = skewedRDD.mapToPair(
        new PairFunction<Tuple2<Long,String>, String, String>() {
            private static final long serialVersionUID = 1L;
            @Override
            public Tuple2<String, String> call(Tuple2<Long, String> tuple)
                    throws Exception {
                Random random = new Random();
                int prefix = random.nextInt(100);
                return new Tuple2<String, String>(prefix + "_" + tuple._1, tuple._2);
            }
        })
        .join(skewedUserid2infoRDD)
        .mapToPair(new PairFunction<Tuple2<String,Tuple2<String,Row>>, Long, Tuple2<String, Row>>() {
                        private static final long serialVersionUID = 1L;
                        @Override
                        public Tuple2<Long, Tuple2<String, Row>> call(
                            Tuple2<String, Tuple2<String, Row>> tuple)
                            throws Exception {
                            long key = Long.valueOf(tuple._1.split("_")[1]);
                            return new Tuple2<Long, Tuple2<String, Row>>(key, tuple._2);
                        }
                    });

// 将rdd1中分拆出來的包含普通key的獨立rdd,直接與rdd2進行join。
JavaPairRDD<Long, Tuple2<String, Row>> joinedRDD2 = commonRDD.join(rdd2);

// 将傾斜key join後的結果與普通key join後的結果,uinon起來。
// 就是最終的join結果。
JavaPairRDD<Long, Tuple2<String, Row>> joinedRDD = joinedRDD1.union(joinedRDD2);      

解決方案七:使用随機字首和擴容RDD進行join

方案适用場景:如果在進行join操作時,RDD中有大量的key導緻資料傾斜,那麼進行分拆key也沒什麼意義,此時就隻能使用最後一種方案來解決問題了。

方案實作思路:

  • 該方案的實作思路基本和“解決方案六”類似,首先檢視RDD/Hive表中的資料分布情況,找到那個造成資料傾斜的RDD/Hive表,比如有多個key都對應了超過1萬條資料。
  • 然後将該RDD的每條資料都打上一個n以内的随機字首。
  • 同時對另外一個正常的RDD進行擴容,将每條資料都擴容成n條資料,擴容出來的每條資料都依次打上一個0~n的字首。
  • 最後将兩個處理後的RDD進行join即可。

方案實作原理:将原先一樣的key通過附加随機字首變成不一樣的key,然後就可以将這些處理後的“不同key”分散到多個task中去處理,而不是讓一個task處理大量的相同key。該方案與“解決方案六”的不同之處就在于,上一種方案是盡量隻對少數傾斜key對應的資料進行特殊處理,由于處理過程需要擴容RDD,是以上一種方案擴容RDD後對記憶體的占用并不大;而這一種方案是針對有大量傾斜key的情況,沒法将部分key拆分出來進行單獨處理,是以隻能對整個RDD進行資料擴容,對記憶體資源要求很高。

方案優點:對join類型的資料傾斜基本都可以處理,而且效果也相對比較顯著,性能提升效果非常不錯。

方案缺點:該方案更多的是緩解資料傾斜,而不是徹底避免資料傾斜。而且需要對整個RDD進行擴容,對記憶體資源要求很高。

方案實踐經驗:曾經開發一個資料需求的時候,發現一個join導緻了資料傾斜。優化之前,作業的執行時間大約是60分鐘左右;使用該方案優化之後,執行時間縮短到10分鐘左右,性能提升了6倍。

// 首先将其中一個key分布相對較為均勻的RDD膨脹100倍。
JavaPairRDD<String, Row> expandedRDD = rdd1.flatMapToPair(
        new PairFlatMapFunction<Tuple2<Long,Row>, String, Row>() {
            private static final long serialVersionUID = 1L;
            @Override
            public Iterable<Tuple2<String, Row>> call(Tuple2<Long, Row> tuple)
                    throws Exception {
                List<Tuple2<String, Row>> list = new ArrayList<Tuple2<String, Row>>();
                for(int i = 0; i < 100; i++) {
                    list.add(new Tuple2<String, Row>(0 + "_" + tuple._1, tuple._2));
                }
                return list;
            }
        });

// 其次,将另一個有資料傾斜key的RDD,每條資料都打上100以内的随機字首。
JavaPairRDD<String, String> mappedRDD = rdd2.mapToPair(
        new PairFunction<Tuple2<Long,String>, String, String>() {
            private static final long serialVersionUID = 1L;
            @Override
            public Tuple2<String, String> call(Tuple2<Long, String> tuple)
                    throws Exception {
                Random random = new Random();
                int prefix = random.nextInt(100);
                return new Tuple2<String, String>(prefix + "_" + tuple._1, tuple._2);
            }
        });

// 将兩個處理後的RDD進行join即可。
JavaPairRDD<String, Tuple2<String, Row>> joinedRDD = mappedRDD.join(expandedRDD);      

解決方案八:多種方案組合使用

在實踐中發現,很多情況下,如果隻是處理較為簡單的資料傾斜場景,那麼使用上述方案中的某一種基本就可以解決。但是如果要處理一個較為複雜的資料傾斜場景,那麼可能需要将多種方案組合起來使用。比如說,我們針對出現了多個資料傾斜環節的Spark作業,可以先運用解決方案一和二,預處理一部分資料,并過濾一部分資料來緩解;其次可以對某些shuffle操作提升并行度,優化其性能;最後還可以針對不同的聚合或join操作,選擇一種方案來優化其性能。大家需要對這些方案的思路和原理都透徹了解之後,在實踐中根據各種不同的情況,靈活運用多種方案,來解決自己的資料傾斜問題。

shuffle調優

調優概述

大多數Spark作業的性能主要就是消耗在了shuffle環節,因為該環節包含了大量的磁盤IO、序列化、網絡資料傳輸等操作。是以,如果要讓作業的性能更上一層樓,就有必要對shuffle過程進行調優。但是也必須提醒大家的是,影響一個Spark作業性能的因素,主要還是代碼開發、資源參數以及資料傾斜,shuffle調優隻能在整個Spark的性能調優中占到一小部分而已。是以大家務必把握住調優的基本原則,千萬不要舍本逐末。下面我們就給大家詳細講解shuffle的原理,以及相關參數的說明,同時給出各個參數的調優建議。

ShuffleManager發展概述

在Spark的源碼中,負責shuffle過程的執行、計算和處理的元件主要就是ShuffleManager,也即shuffle管理器。而随着Spark的版本的發展,ShuffleManager也在不斷疊代,變得越來越先進。

在Spark 1.2以前,預設的shuffle計算引擎是HashShuffleManager。該ShuffleManager而HashShuffleManager有着一個非常嚴重的弊端,就是會産生大量的中間磁盤檔案,進而由大量的磁盤IO操作影響了性能。

是以在Spark 1.2以後的版本中,預設的ShuffleManager改成了SortShuffleManager。SortShuffleManager相較于HashShuffleManager來說,有了一定的改進。主要就在于,每個Task在進行shuffle操作時,雖然也會産生較多的臨時磁盤檔案,但是最後會将所有的臨時檔案合并(merge)成一個磁盤檔案,是以每個Task就隻有一個磁盤檔案。在下一個stage的shuffle read task拉取自己的資料時,隻要根據索引讀取每個磁盤檔案中的部分資料即可。

下面我們詳細分析一下HashShuffleManager和SortShuffleManager的原理。

HashShuffleManager運作原理

未經優化的HashShuffleManager

下圖說明了未經優化的HashShuffleManager的原理。這裡我們先明确一個假設前提:每個Executor隻有1個CPU core,也就是說,無論這個Executor上配置設定多少個task線程,同一時間都隻能執行一個task線程。

我們先從shuffle write開始說起。shuffle write階段,主要就是在一個stage結束計算之後,為了下一個stage可以執行shuffle類的算子(比如reduceByKey),而将每個task處理的資料按key進行“分類”。所謂“分類”,就是對相同的key執行hash算法,進而将相同key都寫入同一個磁盤檔案中,而每一個磁盤檔案都隻屬于下遊stage的一個task。在将資料寫入磁盤之前,會先将資料寫入記憶體緩沖中,當記憶體緩沖填滿之後,才會溢寫到磁盤檔案中去。

那麼每個執行shuffle write的task,要為下一個stage建立多少個磁盤檔案呢?很簡單,下一個stage的task有多少個,目前stage的每個task就要建立多少份磁盤檔案。比如下一個stage總共有100個task,那麼目前stage的每個task都要建立100份磁盤檔案。如果目前stage有50個task,總共有10個Executor,每個Executor執行5個Task,那麼每個Executor上總共就要建立500個磁盤檔案,所有Executor上會建立5000個磁盤檔案。由此可見,未經優化的shuffle write操作所産生的磁盤檔案的數量是極其驚人的。

接着我們來說說shuffle read。shuffle read,通常就是一個stage剛開始時要做的事情。此時該stage的每一個task就需要将上一個stage的計算結果中的所有相同key,從各個節點上通過網絡都拉取到自己所在的節點上,然後進行key的聚合或連接配接等操作。由于shuffle write的過程中,task給下遊stage的每個task都建立了一個磁盤檔案,是以shuffle read的過程中,每個task隻要從上遊stage的所有task所在節點上,拉取屬于自己的那一個磁盤檔案即可。

shuffle read的拉取過程是一邊拉取一邊進行聚合的。每個shuffle read task都會有一個自己的buffer緩沖,每次都隻能拉取與buffer緩沖相同大小的資料,然後通過記憶體中的一個Map進行聚合等操作。聚合完一批資料後,再拉取下一批資料,并放到buffer緩沖中進行聚合操作。以此類推,直到最後将所有資料到拉取完,并得到最終的結果。

spark性能優化指南

hash-shuffle-common

優化後的HashShuffleManager

下圖說明了優化後的HashShuffleManager的原理。這裡說的優化,是指我們可以設定一個參數,spark.shuffle.consolidateFiles。該參數預設值為false,将其設定為true即可開啟優化機制。通常來說,如果我們使用HashShuffleManager,那麼都建議開啟這個選項。

開啟consolidate機制之後,在shuffle write過程中,task就不是為下遊stage的每個task建立一個磁盤檔案了。此時會出現shuffleFileGroup的概念,每個shuffleFileGroup會對應一批磁盤檔案,磁盤檔案的數量與下遊stage的task數量是相同的。一個Executor上有多少個CPU core,就可以并行執行多少個task。而第一批并行執行的每個task都會建立一個shuffleFileGroup,并将資料寫入對應的磁盤檔案内。

當Executor的CPU core執行完一批task,接着執行下一批task時,下一批task就會複用之前已有的shuffleFileGroup,包括其中的磁盤檔案。也就是說,此時task會将資料寫入已有的磁盤檔案中,而不會寫入新的磁盤檔案中。是以,consolidate機制允許不同的task複用同一批磁盤檔案,這樣就可以有效将多個task的磁盤檔案進行一定程度上的合并,進而大幅度減少磁盤檔案的數量,進而提升shuffle write的性能。

假設第二個stage有100個task,第一個stage有50個task,總共還是有10個Executor,每個Executor執行5個task。那麼原本使用未經優化的HashShuffleManager時,每個Executor會産生500個磁盤檔案,所有Executor會産生5000個磁盤檔案的。但是此時經過優化之後,每個Executor建立的磁盤檔案的數量的計算公式為:CPU core的數量 * 下一個stage的task數量。也就是說,每個Executor此時隻會建立100個磁盤檔案,所有Executor隻會建立1000個磁盤檔案

spark性能優化指南

hash-shuffle-consolidate

SortShuffleManager運作原理

SortShuffleManager的運作機制主要分成兩種,一種是普通運作機制,另一種是bypass運作機制。當shuffle read task的數量小于等于spark.shuffle.sort.bypassMergeThreshold參數的值時(預設為200),就會啟用bypass機制。

普通運作機制

下圖說明了普通的SortShuffleManager的原理。在該模式下,資料會先寫入一個記憶體資料結構中,此時根據不同的shuffle算子,可能選用不同的資料結構。如果是reduceByKey這種聚合類的shuffle算子,那麼會選用Map資料結構,一邊通過Map進行聚合,一邊寫入記憶體;如果是join這種普通的shuffle算子,那麼會選用Array資料結構,直接寫入記憶體。接着,每寫一條資料進入記憶體資料結構之後,就會判斷一下,是否達到了某個臨界門檻值。如果達到臨界門檻值的話,那麼就會嘗試将記憶體資料結構中的資料溢寫到磁盤,然後清空記憶體資料結構。

在溢寫到磁盤檔案之前,會先根據key對記憶體資料結構中已有的資料進行排序。排序過後,會分批将資料寫入磁盤檔案。預設的batch數量是10000條,也就是說,排序好的資料,會以每批1萬條資料的形式分批寫入磁盤檔案。寫入磁盤檔案是通過Java的BufferedOutputStream實作的。BufferedOutputStream是Java的緩沖輸出流,首先會将資料緩沖在記憶體中,當記憶體緩沖滿溢之後再一次寫入磁盤檔案中,這樣可以減少磁盤IO次數,提升性能。

一個task将所有資料寫入記憶體資料結構的過程中,會發生多次磁盤溢寫操作,也就會産生多個臨時檔案。最後會将之前所有的臨時磁盤檔案都進行合并,這就是merge過程,此時會将之前所有臨時磁盤檔案中的資料讀取出來,然後依次寫入最終的磁盤檔案之中。此外,由于一個task就隻對應一個磁盤檔案,也就意味着該task為下遊stage的task準備的資料都在這一個檔案中,是以還會單獨寫一份索引檔案,其中辨別了下遊各個task的資料在檔案中的start offset與end offset。

SortShuffleManager由于有一個磁盤檔案merge的過程,是以大大減少了檔案數量。比如第一個stage有50個task,總共有10個Executor,每個Executor執行5個task,而第二個stage有100個task。由于每個task最終隻有一個磁盤檔案,是以此時每個Executor上隻有5個磁盤檔案,所有Executor隻有50個磁盤檔案。

spark性能優化指南

sort-shuffle-common

bypass運作機制

下圖說明了bypass SortShuffleManager的原理。bypass運作機制的觸發條件如下:

  • shuffle map task數量小于spark.shuffle.sort.bypassMergeThreshold參數的值。
  • 不是聚合類的shuffle算子(比如reduceByKey)。

此時task會為每個下遊task都建立一個臨時磁盤檔案,并将資料按key進行hash然後根據key的hash值,将key寫入對應的磁盤檔案之中。當然,寫入磁盤檔案時也是先寫入記憶體緩沖,緩沖寫滿之後再溢寫到磁盤檔案的。最後,同樣會将所有臨時磁盤檔案都合并成一個磁盤檔案,并建立一個單獨的索引檔案。

該過程的磁盤寫機制其實跟未經優化的HashShuffleManager是一模一樣的,因為都要建立數量驚人的磁盤檔案,隻是在最後會做一個磁盤檔案的合并而已。是以少量的最終磁盤檔案,也讓該機制相對未經優化的HashShuffleManager來說,shuffle read的性能會更好。

而該機制與普通SortShuffleManager運作機制的不同在于:第一,磁盤寫機制不同;第二,不會進行排序。也就是說,啟用該機制的最大好處在于,shuffle write過程中,不需要進行資料的排序操作,也就節省掉了這部分的性能開銷。

spark性能優化指南

sort-shuffle-bypass

shuffle相關參數調優

以下是Shffule過程中的一些主要參數,這裡詳細講解了各個參數的功能、預設值以及基于實踐經驗給出的調優建議。

spark.shuffle.file.buffer

  • 預設值:32k
  • 參數說明:該參數用于設定shuffle write task的BufferedOutputStream的buffer緩沖大小。将資料寫到磁盤檔案之前,會先寫入buffer緩沖中,待緩沖寫滿之後,才會溢寫到磁盤。
  • 調優建議:如果作業可用的記憶體資源較為充足的話,可以适當增加這個參數的大小(比如64k),進而減少shuffle write過程中溢寫磁盤檔案的次數,也就可以減少磁盤IO次數,進而提升性能。在實踐中發現,合理調節該參數,性能會有1%~5%的提升。

spark.reducer.maxSizeInFlight

  • 預設值:48m
  • 參數說明:該參數用于設定shuffle read task的buffer緩沖大小,而這個buffer緩沖決定了每次能夠拉取多少資料。
  • 調優建議:如果作業可用的記憶體資源較為充足的話,可以适當增加這個參數的大小(比如96m),進而減少拉取資料的次數,也就可以減少網絡傳輸的次數,進而提升性能。在實踐中發現,合理調節該參數,性能會有1%~5%的提升。

spark.shuffle.io.maxRetries

  • 預設值:3
  • 參數說明:shuffle read task從shuffle write task所在節點拉取屬于自己的資料時,如果因為網絡異常導緻拉取失敗,是會自動進行重試的。該參數就代表了可以重試的最大次數。如果在指定次數之内拉取還是沒有成功,就可能會導緻作業執行失敗。
  • 調優建議:對于那些包含了特别耗時的shuffle操作的作業,建議增加重試最大次數(比如60次),以避免由于JVM的full gc或者網絡不穩定等因素導緻的資料拉取失敗。在實踐中發現,對于針對超大資料量(數十億~上百億)的shuffle過程,調節該參數可以大幅度提升穩定性。

spark.shuffle.io.retryWait

  • 預設值:5s
  • 參數說明:具體解釋同上,該參數代表了每次重試拉取資料的等待間隔,預設是5s。
  • 調優建議:建議加大間隔時長(比如60s),以增加shuffle操作的穩定性。

spark.shuffle.memoryFraction

  • 預設值:0.2
  • 參數說明:該參數代表了Executor記憶體中,配置設定給shuffle read task進行聚合操作的記憶體比例,預設是20%。
  • 調優建議:在資源參數調優中講解過這個參數。如果記憶體充足,而且很少使用持久化操作,建議調高這個比例,給shuffle read的聚合操作更多記憶體,以避免由于記憶體不足導緻聚合過程中頻繁讀寫磁盤。在實踐中發現,合理調節該參數可以将性能提升10%左右。

spark.shuffle.manager

  • 預設值:sort
  • 參數說明:該參數用于設定ShuffleManager的類型。Spark 1.5以後,有三個可選項:hash、sort和tungsten-sort。HashShuffleManager是Spark 1.2以前的預設選項,但是Spark 1.2以及之後的版本預設都是SortShuffleManager了。tungsten-sort與sort類似,但是使用了tungsten計劃中的堆外記憶體管理機制,記憶體使用效率更高。
  • 調優建議:由于SortShuffleManager預設會對資料進行排序,是以如果你的業務邏輯中需要該排序機制的話,則使用預設的SortShuffleManager就可以;而如果你的業務邏輯不需要對資料進行排序,那麼建議參考後面的幾個參數調優,通過bypass機制或優化的HashShuffleManager來避免排序操作,同時提供較好的磁盤讀寫性能。這裡要注意的是,tungsten-sort要慎用,因為之前發現了一些相應的bug。
  • 預設值:200
  • 參數說明:當ShuffleManager為SortShuffleManager時,如果shuffle read task的數量小于這個門檻值(預設是200),則shuffle write過程中不會進行排序操作,而是直接按照未經優化的HashShuffleManager的方式去寫資料,但是最後會将每個task産生的所有臨時磁盤檔案都合并成一個檔案,并會建立單獨的索引檔案。
  • 調優建議:當你使用SortShuffleManager時,如果的确不需要排序操作,那麼建議将這個參數調大一些,大于shuffle read task的數量。那麼此時就會自動啟用bypass機制,map-side就不會進行排序了,減少了排序的性能開銷。但是這種方式下,依然會産生大量的磁盤檔案,是以shuffle write性能有待提高。
  • 預設值:false
  • 參數說明:如果使用HashShuffleManager,該參數有效。如果設定為true,那麼就會開啟consolidate機制,會大幅度合并shuffle write的輸出檔案,對于shuffle read task數量特别多的情況下,這種方法可以極大地減少磁盤IO開銷,提升性能。
  • 調優建議:如果的确不需要SortShuffleManager的排序機制,那麼除了使用bypass機制,還可以嘗試将spark.shffle.manager參數手動指定為hash,使用HashShuffleManager,同時開啟consolidate機制。在實踐中嘗試過,發現其性能比開啟了bypass機制的SortShuffleManager要高出10%~30%。

繼續閱讀