- 一、調優概述
- 二、資料傾斜發生時的現象
- 三、資料傾斜發生的原理
- 四、如何定位導緻資料傾斜的代碼
- 五、某個task執行特别慢的情況
- 六、某個task莫名其妙記憶體溢出的情況
- 七、檢視導緻資料傾斜的key的資料分布情況
- 資料傾斜的解決方案
- 解決方案一:使用 Hive ETL 預處理資料
- 解決方案二:過濾少數導緻傾斜的key
- 解決方案三:提高shuffle操作的并行度
- 解決方案四:兩階段聚合(局部聚合+全局聚合)
- 解決方案五:将reduce join轉為map join
- 解決方案六:采樣傾斜key并分拆join操作
- 解決方案七:使用随機字首和擴容RDD進行join
- 解決方案八:多種方案組合使用
- 調優概述-
有的時候,我們可能會遇到大資料計算中一個最棘手的問題——資料傾斜,此時Spark作業的性能會比期望差很多。資料傾斜調優,就是使用各種技術方案解決不同類型的資料傾斜問題,以保證Spark作業的性能。
- 資料傾斜發生時的現象 -
絕大多數task執行得都非常快,但個别task執行極慢。比如,總共有1000個task,997個task都在1分鐘之内執行完了,但是剩餘兩三個task卻要一兩個小時。這種情況很常見。
原本能夠正常執行的Spark作業,某天突然報出OOM(記憶體溢出)異常,觀察異常棧,是我們寫的業務代碼造成的。這種情況比較少見。
- 資料傾斜發生的原理 -
資料傾斜的原理很簡單:在進行shuffle的時候,必須将各個節點上相同的key拉取到某個節點上的一個task來進行處理,比如按照key進行聚合或join等操作。此時如果某個key對應的資料量特别大的話,就會發生資料傾斜。比如大部分key對應10條資料,但是個别key卻對應了100萬條資料,那麼大部分task可能就隻會配置設定到10條資料,然後1秒鐘就運作完了;但是個别task可能配置設定到了100萬資料,要運作一兩個小時。是以,整個Spark作業的運作進度是由運作時間最長的那個task決定的。
是以出現資料傾斜的時候,Spark作業看起來會運作得非常緩慢,甚至可能因為某個task處理的資料量過大導緻記憶體溢出。
下圖就是一個很清晰的例子:hello這個key,在三個節點上對應了總共7條資料,這些資料都會被拉取到同一個task中進行處理;而world和you這兩個key分别才對應1條資料,是以另外兩個task隻要分别處理1條資料即可。此時第一個task的運作時間可能是另外兩個task的7倍,而整個stage的運作速度也由運作最慢的那個task所決定。

- 如何定位導緻資料傾斜的代碼 -
資料傾斜隻會發生在shuffle過程中。這裡給大家羅列一些常用的并且可能會觸發shuffle操作的算子:distinct、groupByKey、reduceByKey、aggregateByKey、join、cogroup、repartition等。出現資料傾斜時,可能就是你的代碼中使用了這些算子中的某一個所導緻的。
- 某個task執行特别慢的情況 -
首先要看的,就是資料傾斜發生在第幾個stage中。
如果是用yarn-client模式送出,那麼本地是直接可以看到log的,可以在log中找到目前運作到了第幾個stage;如果是用yarn-cluster模式送出,則可以通過Spark Web UI來檢視目前運作到了第幾個stage。此外,無論是使用yarn-client模式還是yarn-cluster模式,我們都可以在Spark Web UI上深入看一下目前這個stage各個task配置設定的資料量,進而進一步确定是不是task配置設定的資料不均勻導緻了資料傾斜。
比如下圖中,倒數第三列顯示了每個task的運作時間。明顯可以看到,有的task運作特别快,隻需要幾秒鐘就可以運作完;而有的task運作特别慢,需要幾分鐘才能運作完,此時單從運作時間上看就已經能夠确定發生資料傾斜了。此外,倒數第一列顯示了每個task處理的資料量,明顯可以看到,運作時間特别短的task隻需要處理幾百KB的資料即可,而運作時間特别長的task需要處理幾千KB的資料,處理的資料量差了10倍。此時更加能夠确定是發生了資料傾斜。
知道資料傾斜發生在哪一個stage之後,接着我們就需要根據stage劃分原理,推算出來發生傾斜的那個stage對應代碼中的哪一部分,這部分代碼中肯定會有一個shuffle類算子。精準推算stage與代碼的對應關系,需要對Spark的源碼有深入的了解,這裡我們可以介紹一個相對簡單實用的推算方法:隻要看到Spark代碼中出現了一個shuffle類算子或者是Spark SQL的SQL語句中出現了會導緻shuffle的語句(比如group by語句),那麼就可以判定,以那個地方為界限劃分出了前後兩個stage。
這裡我們就以Spark最基礎的入門程式——單詞計數來舉例,如何用最簡單的方法大緻推算出一個stage對應的代碼。如下示例,在整個代碼中,隻有一個reduceByKey是會發生shuffle的算子,是以就可以認為,以這個算子為界限,會劃分出前後兩個stage。
- stage0,主要是執行從textFile到map操作,以及執行shuffle write操作。shuffle write操作,我們可以簡單了解為對pairs RDD中的資料進行分區操作,每個task處理的資料中,相同的key會寫入同一個磁盤檔案内。
- stage1,主要是執行從reduceByKey到collect操作,stage1的各個task一開始運作,就會首先執行shuffle read操作。執行shuffle read操作的task,會從stage0的各個task所在節點拉取屬于自己處理的那些key,然後對同一個key進行全局性的聚合或join等操作,在這裡就是對key的value值進行累加。stage1在執行完reduceByKey算子之後,就計算出了最終的wordCounts RDD,然後會執行collect算子,将所有資料拉取到Driver上,供我們周遊和列印輸出。
val conf = new SparkConf()
val sc = new SparkContext(conf)
val lines = sc.textFile("hdfs://...")
val words = lines.flatMap(_.split(" "))
val pairs = words.map((_, 1))
val wordCounts = pairs.reduceByKey(_ + _)
wordCounts.collect().foreach(println(_))
複制
通過對單詞計數程式的分析,希望能夠讓大家了解最基本的stage劃分的原理,以及stage劃分後shuffle操作是如何在兩個stage的邊界處執行的。然後我們就知道如何快速定位出發生資料傾斜的stage對應代碼的哪一個部分了。比如我們在Spark Web UI或者本地log中發現,stage1的某幾個task執行得特别慢,判定stage1出現了資料傾斜,那麼就可以回到代碼中定位出stage1主要包括了reduceByKey這個shuffle類算子,此時基本就可以确定是由educeByKey算子導緻的資料傾斜問題。比如某個單詞出現了100萬次,其他單詞才出現10次,那麼stage1的某個task就要處理100萬資料,整個stage的速度就會被這個task拖慢。
- 某個task莫名其妙記憶體溢出的情況-
這種情況下去定位出問題的代碼就比較容易了。我們建議直接看yarn-client模式下本地log的異常棧,或者是通過YARN檢視yarn-cluster模式下的log中的異常棧。一般來說,通過異常棧資訊就可以定位到你的代碼中哪一行發生了記憶體溢出。然後在那行代碼附近找找,一般也會有shuffle類算子,此時很可能就是這個算子導緻了資料傾斜。
但是大家要注意的是,不能單純靠偶然的記憶體溢出就判定發生了資料傾斜。因為自己編寫的代碼的bug,以及偶然出現的資料異常,也可能會導緻記憶體溢出。是以還是要按照上面所講的方法,通過Spark Web UI檢視報錯的那個stage的各個task的運作時間以及配置設定的資料量,才能确定是否是由于資料傾斜才導緻了這次記憶體溢出。
- 檢視導緻資料傾斜的Key的資料分布情況 -
知道了資料傾斜發生在哪裡之後,通常需要分析一下那個執行了shuffle操作并且導緻了資料傾斜的RDD/Hive表,檢視一下其中key的分布情況。這主要是為之後選擇哪一種技術方案提供依據。針對不同的key分布與不同的shuffle算子組合起來的各種情況,可能需要選擇不同的技術方案來解決。
此時根據你執行操作的情況不同,可以有很多種檢視key分布的方式:
- 如果是Spark SQL中的group by、join語句導緻的資料傾斜,那麼就查詢一下SQL中使用的表的key分布情況。
- 如果是對Spark RDD執行shuffle算子導緻的資料傾斜,那麼可以在Spark作業中加入檢視key分布的代碼,比如RDD.countByKey()。然後對統計出來的各個key出現的次數,collect/take到用戶端列印一下,就可以看到key的分布情況。
舉例來說,對于上面所說的單詞計數程式,如果确定了是stage1的reduceByKey算子導緻了資料傾斜,那麼就應該看看進行reduceByKey操作的RDD中的key分布情況,在這個例子中指的就是pairs RDD。如下示例,我們可以先對pairs采樣10%的樣本資料,然後使用countByKey算子統計出每個key出現的次數,最後在用戶端周遊和列印樣本資料中各個key的出現次數。
val sampledPairs = pairs.sample(false, 0.1)
val sampledWordCounts = sampledPairs.countByKey()
sampledWordCounts.foreach(println(_))
複制
- 資料傾斜的解決方案 -
解決方案一:使用 Hive ETL 預處理資料
方案适用場景:導緻資料傾斜的是Hive表。如果該Hive表中的資料本身很不均勻(比如某個key對應了100萬資料,其他key才對應了10條資料),而且業務場景需要頻繁使用Spark對Hive表執行某個分析操作,那麼比較适合使用這種技術方案。
方案實作思路:此時可以評估一下,是否可以通過Hive來進行資料預處理(即通過Hive ETL預先對資料按照key進行聚合,或者是預先和其他表進行join),然後在Spark作業中針對的資料源就不是原來的Hive表了,而是預處理後的Hive表。此時由于資料已經預先進行過聚合或join操作了,那麼在Spark作業中也就不需要使用原先的shuffle類算子執行這類操作了。
方案實作原理:這種方案從根源上解決了資料傾斜,因為徹底避免了在Spark中執行shuffle類算子,那麼肯定就不會有資料傾斜的問題了。但是這裡也要提醒一下大家,這種方式屬于治标不治本。因為畢竟資料本身就存在分布不均勻的問題,是以Hive ETL中進行group by或者join等shuffle操作時,還是會出現資料傾斜,導緻Hive ETL的速度很慢。我們隻是把資料傾斜的發生提前到了Hive ETL中,避免Spark程式發生資料傾斜而已。
方案優點:實作起來簡單便捷,效果還非常好,完全規避掉了資料傾斜,Spark作業的性能會大幅度提升。
方案缺點:治标不治本,Hive ETL中還是會發生資料傾斜。
方案實踐經驗:在一些Java系統與Spark結合使用的項目中,會出現Java代碼頻繁調用Spark作業的場景,而且對Spark作業的執行性能要求很高,就比較适合使用這種方案。将資料傾斜提前到上遊的Hive ETL,每天僅執行一次,隻有那一次是比較慢的,而之後每次Java調用Spark作業時,執行速度都會很快,能夠提供更好的使用者體驗。
項目實踐經驗:在美團·點評的互動式使用者行為分析系統中使用了這種方案,該系統主要是允許使用者通過Java Web系統送出資料分析統計任務,後端通過Java送出Spark作業進行資料分析統計。要求Spark作業速度必須要快,盡量在10分鐘以内,否則速度太慢,使用者體驗會很差。是以我們将有些Spark作業的shuffle操作提前到了Hive ETL中,進而讓Spark直接使用預處理的Hive中間表,盡可能地減少Spark的shuffle操作,大幅度提升了性能,将部分作業的性能提升了6倍以上。
解決方案二:過濾少數導緻傾斜的key
方案适用場景:如果發現導緻傾斜的key就少數幾個,而且對計算本身的影響并不大的話,那麼很适合使用這種方案。比如99%的key就對應10條資料,但是隻有一個key對應了100萬資料,進而導緻了資料傾斜。
方案實作思路:如果我們判斷那少數幾個資料量特别多的key,對作業的執行和計算結果不是特别重要的話,那麼幹脆就直接過濾掉那少數幾個key。比如,在Spark SQL中可以使用where子句過濾掉這些key或者在Spark Core中對RDD執行filter算子過濾掉這些key。如果需要每次作業執行時,動态判定哪些key的資料量最多然後再進行過濾,那麼可以使用sample算子對RDD進行采樣,然後計算出每個key的數量,取資料量最多的key過濾掉即可。
方案實作原理:将導緻資料傾斜的key給過濾掉之後,這些key就不會參與計算了,自然不可能産生資料傾斜。
方案優點:實作簡單,而且效果也很好,可以完全規避掉資料傾斜。
方案缺點:适用場景不多,大多數情況下,導緻傾斜的key還是很多的,并不是隻有少數幾個。
方案實踐經驗:在項目中我們也采用過這種方案解決資料傾斜。有一次發現某一天Spark作業在運作的時候突然OOM了,追查之後發現,是Hive表中的某一個key在那天資料異常,導緻資料量暴增。是以就采取每次執行前先進行采樣,計算出樣本中資料量最大的幾個key之後,直接在程式中将那些key給過濾掉。
解決方案三:提高shuffle操作的并行度
方案适用場景:如果我們必須要對資料傾斜迎難而上,那麼建議優先使用這種方案,因為這是處理資料傾斜最簡單的一種方案。
方案實作思路:在對RDD執行shuffle算子時,給shuffle算子傳入一個參數,比如reduceByKey(1000),該參數就設定了這個shuffle算子執行時shuffle read task的數量。對于Spark SQL中的shuffle類語句,比如group by、join等,需要設定一個參數,即spark.sql.shuffle.partitions,該參數代表了shuffle read task的并行度,該值預設是200,對于很多場景來說都有點過小。
方案實作原理:增加shuffle read task的數量,可以讓原本配置設定給一個task的多個key配置設定給多個task,進而讓每個task處理比原來更少的資料。舉例來說,如果原本有5個key,每個key對應10條資料,這5個key都是配置設定給一個task的,那麼這個task就要處理50條資料。而增加了shuffle read task以後,每個task就配置設定到一個key,即每個task就處理10條資料,那麼自然每個task的執行時間都會變短了。具體原理如下圖所示。
方案優點:實作起來比較簡單,可以有效緩解和減輕資料傾斜的影響。
方案缺點:隻是緩解了資料傾斜而已,沒有徹底根除問題,根據實踐經驗來看,其效果有限。
方案實踐經驗:該方案通常無法徹底解決資料傾斜,因為如果出現一些極端情況,比如某個key對應的資料量有100萬,那麼無論你的task數量增加到多少,這個對應着100萬資料的key肯定還是會配置設定到一個task中去處理,是以注定還是會發生資料傾斜的。是以這種方案隻能說是在發現資料傾斜時嘗試使用的第一種手段,嘗試去用嘴簡單的方法緩解資料傾斜而已,或者是和其他方案結合起來使用。
解決方案四:兩階段聚合(局部聚合+全局聚合)
方案适用場景:對RDD執行reduceByKey等聚合類shuffle算子或者在Spark SQL中使用group by語句進行分組聚合時,比較适用這種方案。
方案實作思路:這個方案的核心實作思路就是進行兩階段聚合。第一次是局部聚合,先給每個key都打上一個随機數,比如10以内的随機數,此時原先一樣的key就變成不一樣的了,比如(hello, 1) (hello, 1) (hello, 1) (hello, 1),就會變成(1_hello, 1) (1_hello, 1) (2_hello, 1) (2_hello, 1)。接着對打上随機數後的資料,執行reduceByKey等聚合操作,進行局部聚合,那麼局部聚合結果,就會變成了(1_hello, 2) (2_hello, 2)。然後将各個key的字首給去掉,就會變成(hello,2)(hello,2),再次進行全局聚合操作,就可以得到最終結果了,比如(hello, 4)。
方案實作原理:将原本相同的key通過附加随機字首的方式,變成多個不同的key,就可以讓原本被一個task處理的資料分散到多個task上去做局部聚合,進而解決單個task處理資料量過多的問題。接着去除掉随機字首,再次進行全局聚合,就可以得到最終的結果。具體原理見下圖。
方案優點:對于聚合類的shuffle操作導緻的資料傾斜,效果是非常不錯的。通常都可以解決掉資料傾斜,或者至少是大幅度緩解資料傾斜,将Spark作業的性能提升數倍以上。
方案缺點:僅僅适用于聚合類的shuffle操作,适用範圍相對較窄。如果是join類的shuffle操作,還得用其他的解決方案。
// 第一步,給RDD中的每個key都打上一個随機字首。
JavaPairRDD<String, Long> randomPrefixRdd = rdd.mapToPair(
new PairFunction<Tuple2<Long,Long>, String, Long>() {
private static final long serialVersionUID = 1L;
@Override
public Tuple2<String, Long> call(Tuple2<Long, Long> tuple)
throws Exception {
Random random = new Random();
int prefix = random.nextInt(10);
return new Tuple2<String, Long>(prefix + "_" + tuple._1, tuple._2);
}
});
// 第二步,對打上随機字首的key進行局部聚合。
JavaPairRDD<String, Long> localAggrRdd = randomPrefixRdd.reduceByKey(
new Function2<Long, Long, Long>() {
private static final long serialVersionUID = 1L;
@Override
public Long call(Long v1, Long v2) throws Exception {
return v1 + v2;
}
});
// 第三步,去除RDD中每個key的随機字首。
JavaPairRDD<Long, Long> removedRandomPrefixRdd = localAggrRdd.mapToPair(
new PairFunction<Tuple2<String,Long>, Long, Long>() {
private static final long serialVersionUID = 1L;
@Override
public Tuple2<Long, Long> call(Tuple2<String, Long> tuple)
throws Exception {
long originalKey = Long.valueOf(tuple._1.split("_")[1]);
return new Tuple2<Long, Long>(originalKey, tuple._2);
}
});
// 第四步,對去除了随機字首的RDD進行全局聚合。
JavaPairRDD<Long, Long> globalAggrRdd = removedRandomPrefixRdd.reduceByKey(
new Function2<Long, Long, Long>() {
private static final long serialVersionUID = 1L;
@Override
public Long call(Long v1, Long v2) throws Exception {
return v1 + v2;
}
});
複制
解決方案五:将reduce join轉為map join
方案适用場景:在對RDD使用join類操作,或者是在Spark SQL中使用join語句時,而且join操作中的一個RDD或表的資料量比較小(比如幾百M或者一兩G),比較适用此方案。
方案實作思路:不使用join算子進行連接配接操作,而使用Broadcast變量與map類算子實作join操作,進而完全規避掉shuffle類的操作,徹底避免資料傾斜的發生和出現。将較小RDD中的資料直接通過collect算子拉取到Driver端的記憶體中來,然後對其建立一個Broadcast變量;接着對另外一個RDD執行map類算子,在算子函數内,從Broadcast變量中擷取較小RDD的全量資料,與目前RDD的每一條資料按照連接配接key進行比對,如果連接配接key相同的話,那麼就将兩個RDD的資料用你需要的方式連接配接起來。
方案實作原理:普通的join是會走shuffle過程的,而一旦shuffle,就相當于會将相同key的資料拉取到一個shuffle read task中再進行join,此時就是reduce join。但是如果一個RDD是比較小的,則可以采用廣播小RDD全量資料+map算子來實作與join同樣的效果,也就是map join,此時就不會發生shuffle操作,也就不會發生資料傾斜。具體原理如下圖所示。
方案優點:對join操作導緻的資料傾斜,效果非常好,因為根本就不會發生shuffle,也就根本不會發生資料傾斜。
方案缺點:适用場景較少,因為這個方案隻适用于一個大表和一個小表的情況。畢竟我們需要将小表進行廣播,此時會比較消耗記憶體資源,driver和每個Executor記憶體中都會駐留一份小RDD的全量資料。如果我們廣播出去的RDD資料比較大,比如10G以上,那麼就可能發生記憶體溢出了。是以并不适合兩個都是大表的情況。
// 首先将資料量比較小的RDD的資料,collect到Driver中來。
List<Tuple2<Long, Row>> rdd1Data = rdd1.collect()
// 然後使用Spark的廣播功能,将小RDD的資料轉換成廣播變量,這樣每個Executor就隻有一份RDD的資料。
// 可以盡可能節省記憶體空間,并且減少網絡傳輸性能開銷。
final Broadcast<List<Tuple2<Long, Row>>> rdd1DataBroadcast = sc.broadcast(rdd1Data);
// 對另外一個RDD執行map類操作,而不再是join類操作。
JavaPairRDD<String, Tuple2<String, Row>> joinedRdd = rdd2.mapToPair(
new PairFunction<Tuple2<Long,String>, String, Tuple2<String, Row>>() {
private static final long serialVersionUID = 1L;
@Override
public Tuple2<String, Tuple2<String, Row>> call(Tuple2<Long, String> tuple)
throws Exception {
// 在算子函數中,通過廣播變量,擷取到本地Executor中的rdd1資料。
List<Tuple2<Long, Row>> rdd1Data = rdd1DataBroadcast.value();
// 可以将rdd1的資料轉換為一個Map,便于後面進行join操作。
Map<Long, Row> rdd1DataMap = new HashMap<Long, Row>();
for(Tuple2<Long, Row> data : rdd1Data) {
rdd1DataMap.put(data._1, data._2);
}
// 擷取目前RDD資料的key以及value。
String key = tuple._1;
String value = tuple._2;
// 從rdd1資料Map中,根據key擷取到可以join到的資料。
Row rdd1Value = rdd1DataMap.get(key);
return new Tuple2<String, String>(key, new Tuple2<String, Row>(value, rdd1Value));
}
});
// 這裡得提示一下。
// 上面的做法,僅僅适用于rdd1中的key沒有重複,全部是唯一的場景。
// 如果rdd1中有多個相同的key,那麼就得用flatMap類的操作,在進行join的時候不能用map,而是得周遊rdd1所有資料進行join。
// rdd2中每條資料都可能會傳回多條join後的資料。
複制
解決方案六:采樣傾斜key并分拆join操作
方案适用場景:兩個RDD/Hive表進行join的時候,如果資料量都比較大,無法采用“解決方案五”,那麼此時可以看一下兩個RDD/Hive表中的key分布情況。如果出現資料傾斜,是因為其中某一個RDD/Hive表中的少數幾個key的資料量過大,而另一個RDD/Hive表中的所有key都分布比較均勻,那麼采用這個解決方案是比較合适的。
方案實作思路:
- 對包含少數幾個資料量過大的key的那個RDD,通過sample算子采樣出一份樣本來,然後統計一下每個key的數量,計算出來資料量最大的是哪幾個key。
- 然後将這幾個key對應的資料從原來的RDD中拆分出來,形成一個單獨的RDD,并給每個key都打上n以内的随機數作為字首,而不會導緻傾斜的大部分key形成另外一個RDD。
- 接着将需要join的另一個RDD,也過濾出來那幾個傾斜key對應的資料并形成一個單獨的RDD,将每條資料膨脹成n條資料,這n條資料都按順序附加一個0~n的字首,不會導緻傾斜的大部分key也形成另外一個RDD。
- 再将附加了随機字首的獨立RDD與另一個膨脹n倍的獨立RDD進行join,此時就可以将原先相同的key打散成n份,分散到多個task中去進行join了。
- 而另外兩個普通的RDD就照常join即可。
- 最後将兩次join的結果使用union算子合并起來即可,就是最終的join結果。
方案實作原理:對于join導緻的資料傾斜,如果隻是某幾個key導緻了傾斜,可以将少數幾個key分拆成獨立RDD,并附加随機字首打散成n份去進行join,此時這幾個key對應的資料就不會集中在少數幾個task上,而是分散到多個task進行join了。具體原理見下圖。
方案優點:對于join導緻的資料傾斜,如果隻是某幾個key導緻了傾斜,采用該方式可以用最有效的方式打散key進行join。而且隻需要針對少數傾斜key對應的資料進行擴容n倍,不需要對全量資料進行擴容。避免了占用過多記憶體。
方案缺點:如果導緻傾斜的key特别多的話,比如成千上萬個key都導緻資料傾斜,那麼這種方式也不适合。
// 首先從包含了少數幾個導緻資料傾斜key的rdd1中,采樣10%的樣本資料。
JavaPairRDD<Long, String> sampledRDD = rdd1.sample(false, 0.1);
// 對樣本資料RDD統計出每個key的出現次數,并按出現次數降序排序。
// 對降序排序後的資料,取出top 1或者top 100的資料,也就是key最多的前n個資料。
// 具體取出多少個資料量最多的key,由大家自己決定,我們這裡就取1個作為示範。
JavaPairRDD<Long, Long> mappedSampledRDD = sampledRDD.mapToPair(
new PairFunction<Tuple2<Long,String>, Long, Long>() {
private static final long serialVersionUID = 1L;
@Override
public Tuple2<Long, Long> call(Tuple2<Long, String> tuple)
throws Exception {
return new Tuple2<Long, Long>(tuple._1, 1L);
}
});
JavaPairRDD<Long, Long> countedSampledRDD = mappedSampledRDD.reduceByKey(
new Function2<Long, Long, Long>() {
private static final long serialVersionUID = 1L;
@Override
public Long call(Long v1, Long v2) throws Exception {
return v1 + v2;
}
});
JavaPairRDD<Long, Long> reversedSampledRDD = countedSampledRDD.mapToPair(
new PairFunction<Tuple2<Long,Long>, Long, Long>() {
private static final long serialVersionUID = 1L;
@Override
public Tuple2<Long, Long> call(Tuple2<Long, Long> tuple)
throws Exception {
return new Tuple2<Long, Long>(tuple._2, tuple._1);
}
});
final Long skewedUserid = reversedSampledRDD.sortByKey(false).take(1).get(0)._2;
// 從rdd1中分拆出導緻資料傾斜的key,形成獨立的RDD。
JavaPairRDD<Long, String> skewedRDD = rdd1.filter(
new Function<Tuple2<Long,String>, Boolean>() {
private static final long serialVersionUID = 1L;
@Override
public Boolean call(Tuple2<Long, String> tuple) throws Exception {
return tuple._1.equals(skewedUserid);
}
});
// 從rdd1中分拆出不導緻資料傾斜的普通key,形成獨立的RDD。
JavaPairRDD<Long, String> commonRDD = rdd1.filter(
new Function<Tuple2<Long,String>, Boolean>() {
private static final long serialVersionUID = 1L;
@Override
public Boolean call(Tuple2<Long, String> tuple) throws Exception {
return !tuple._1.equals(skewedUserid);
}
});
// rdd2,就是那個所有key的分布相對較為均勻的rdd。
// 這裡将rdd2中,前面擷取到的key對應的資料,過濾出來,分拆成單獨的rdd,并對rdd中的資料使用flatMap算子都擴容100倍。
// 對擴容的每條資料,都打上0~100的字首。
JavaPairRDD<String, Row> skewedRdd2 = rdd2.filter(
new Function<Tuple2<Long,Row>, Boolean>() {
private static final long serialVersionUID = 1L;
@Override
public Boolean call(Tuple2<Long, Row> tuple) throws Exception {
return tuple._1.equals(skewedUserid);
}
}).flatMapToPair(new PairFlatMapFunction<Tuple2<Long,Row>, String, Row>() {
private static final long serialVersionUID = 1L;
@Override
public Iterable<Tuple2<String, Row>> call(
Tuple2<Long, Row> tuple) throws Exception {
Random random = new Random();
List<Tuple2<String, Row>> list = new ArrayList<Tuple2<String, Row>>();
for(int i = 0; i < 100; i++) {
list.add(new Tuple2<String, Row>(i + "_" + tuple._1, tuple._2));
}
return list;
}
});
// 将rdd1中分拆出來的導緻傾斜的key的獨立rdd,每條資料都打上100以内的随機字首。
// 然後将這個rdd1中分拆出來的獨立rdd,與上面rdd2中分拆出來的獨立rdd,進行join。
JavaPairRDD<Long, Tuple2<String, Row>> joinedRDD1 = skewedRDD.mapToPair(
new PairFunction<Tuple2<Long,String>, String, String>() {
private static final long serialVersionUID = 1L;
@Override
public Tuple2<String, String> call(Tuple2<Long, String> tuple)
throws Exception {
Random random = new Random();
int prefix = random.nextInt(100);
return new Tuple2<String, String>(prefix + "_" + tuple._1, tuple._2);
}
})
.join(skewedUserid2infoRDD)
.mapToPair(new PairFunction<Tuple2<String,Tuple2<String,Row>>, Long, Tuple2<String, Row>>() {
private static final long serialVersionUID = 1L;
@Override
public Tuple2<Long, Tuple2<String, Row>> call(
Tuple2<String, Tuple2<String, Row>> tuple)
throws Exception {
long key = Long.valueOf(tuple._1.split("_")[1]);
return new Tuple2<Long, Tuple2<String, Row>>(key, tuple._2);
}
});
// 将rdd1中分拆出來的包含普通key的獨立rdd,直接與rdd2進行join。
JavaPairRDD<Long, Tuple2<String, Row>> joinedRDD2 = commonRDD.join(rdd2);
// 将傾斜key join後的結果與普通key join後的結果,uinon起來。
// 就是最終的join結果。
JavaPairRDD<Long, Tuple2<String, Row>> joinedRDD = joinedRDD1.union(joinedRDD2);
複制
解決方案七:使用随機字首和擴容RDD進行join
方案适用場景:如果在進行join操作時,RDD中有大量的key導緻資料傾斜,那麼進行分拆key也沒什麼意義,此時就隻能使用最後一種方案來解決問題了。
方案實作思路:
- 該方案的實作思路基本和“解決方案六”類似,首先檢視RDD/Hive表中的資料分布情況,找到那個造成資料傾斜的RDD/Hive表,比如有多個key都對應了超過1萬條資料。
- 然後将該RDD的每條資料都打上一個n以内的随機字首。
- 同時對另外一個正常的RDD進行擴容,将每條資料都擴容成n條資料,擴容出來的每條-資料都依次打上一個0~n的字首。
- 最後将兩個處理後的RDD進行join即可。
方案實作原理:将原先一樣的key通過附加随機字首變成不一樣的key,然後就可以将這些處理後的“不同key”分散到多個task中去處理,而不是讓一個task處理大量的相同key。該方案與“解決方案六”的不同之處就在于,上一種方案是盡量隻對少數傾斜key對應的資料進行特殊處理,由于處理過程需要擴容RDD,是以上一種方案擴容RDD後對記憶體的占用并不大;而這一種方案是針對有大量傾斜key的情況,沒法将部分key拆分出來進行單獨處理,是以隻能對整個RDD進行資料擴容,對記憶體資源要求很高。
方案優點:對join類型的資料傾斜基本都可以處理,而且效果也相對比較顯著,性能提升效果非常不錯。
方案缺點:該方案更多的是緩解資料傾斜,而不是徹底避免資料傾斜。而且需要對整個RDD進行擴容,對記憶體資源要求很高。
方案實踐經驗:曾經開發一個資料需求的時候,發現一個join導緻了資料傾斜。優化之前,作業的執行時間大約是60分鐘左右;使用該方案優化之後,執行時間縮短到10分鐘左右,性能提升了6倍。
// 首先将其中一個key分布相對較為均勻的RDD膨脹100倍。
JavaPairRDD<String, Row> expandedRDD = rdd1.flatMapToPair(
new PairFlatMapFunction<Tuple2<Long,Row>, String, Row>() {
private static final long serialVersionUID = 1L;
@Override
public Iterable<Tuple2<String, Row>> call(Tuple2<Long, Row> tuple)
throws Exception {
List<Tuple2<String, Row>> list = new ArrayList<Tuple2<String, Row>>();
for(int i = 0; i < 100; i++) {
list.add(new Tuple2<String, Row>(0 + "_" + tuple._1, tuple._2));
}
return list;
}
});
// 其次,将另一個有資料傾斜key的RDD,每條資料都打上100以内的随機字首。
JavaPairRDD<String, String> mappedRDD = rdd2.mapToPair(
new PairFunction<Tuple2<Long,String>, String, String>() {
private static final long serialVersionUID = 1L;
@Override
public Tuple2<String, String> call(Tuple2<Long, String> tuple)
throws Exception {
Random random = new Random();
int prefix = random.nextInt(100);
return new Tuple2<String, String>(prefix + "_" + tuple._1, tuple._2);
}
});
// 将兩個處理後的RDD進行join即可。
JavaPairRDD<String, Tuple2<String, Row>> joinedRDD = mappedRDD.join(expandedRDD);
複制
解決方案八:多種方案組合使用
在實踐中發現,很多情況下,如果隻是處理較為簡單的資料傾斜場景,那麼使用上述方案中的某一種基本就可以解決。但是如果要處理一個較為複雜的資料傾斜場景,那麼可能需要将多種方案組合起來使用。比如說,我們針對出現了多個資料傾斜環節的Spark作業,可以先運用解決方案一和二,預處理一部分資料,并過濾一部分資料來緩解;其次可以對某些shuffle操作提升并行度,優化其性能;最後還可以針對不同的聚合或join操作,選擇一種方案來優化其性能。大家需要對這些方案的思路和原理都透徹了解之後,在實踐中根據各種不同的情況,靈活運用多種方案,來解決自己的資料傾斜問題。