Spark異常處理——Shuffle FetchFailedException

在大規模數據處理中,這個錯誤比較常見。一般發生在有大量shuffle操作的時候,task不斷的failed,然后又重執行,一直循環下去,直到application失敗。

報錯方式

  • missing output location
  • shuffle fetch faild

SparkSQL shuffle報錯樣例

org.apache.spark.shuffle.MetadataFetchFailedException: 
Missing an output location for shuffle 0
org.apache.spark.shuffle.FetchFailedException:
Failed to connect to hostname/192.168.xx.xxx:50268

RDD shuffle報錯樣例

WARN TaskSetManager: Lost task 17.1 in stage 4.1 (TID 1386, spark050013): java.io.FileNotFoundException: /data04/spark/tmp/blockmgr-817d372f-c359-4a00-96dd-8f6554aa19cd/2f/temp_shuffle_e22e013a-5392-4edb-9874-a196a1dad97c (沒有那個文件或目錄)
FetchFailed(BlockManagerId(6083b277-119a-49e8-8a49-3539690a2a3f-S155, spark050013, 8533), shuffleId=1, mapId=143, reduceId=3, message=
org.apache.spark.shuffle.FetchFailedException: Error in opening FileSegmentManagedBuffer{file=/data04/spark/tmp/blockmgr-817d372f-c359-4a00-96dd-8f6554aa19cd/0e/shuffle_1_143_0.data, offset=997061, length=112503}

原因

shuffle分為shuffle writeshuffle read兩部分:

  • shuffle write:分區數由上一階段的RDD分區數控制
    類似于saveAsLocalDiskFile的操作,將計算的中間結果按某種規則,臨時存放到各個executor所在的本地磁盤上。
  • shuffle read:分區數由Spark提供的參數控制
    如果這個參數值設置的很小,同時shuffle read量很大,那么單個task處理的數據量也會很大,這可能導致JVM crash,從而獲取shuffle數據失敗,同時executor也丟失了,看到Failed to connect to host的錯誤,也就是executor lost的意思。
    有時候即使不會導致JVM crash也會造成長時間的gc。

解決辦法

解決辦法主要從 shuffle的數據量處理shuffle數據的分區數 兩個角度入手。

1. 減少shuffle數據
  • 是否可以使用map side join或是broadcast join來規避shuffle。
  • 在shuffle前將不必要的數據過濾掉。比如原始數據有20個字段,只要選取需要的字段進行處理即可,將會減少一定的shuffle數據。
2. SparkSQL和DataFrame的join,group by等操作

通過spark.sql.shuffle.partitions控制分區數,默認為200,根據shuffle的量以及計算的復雜度提高這個值。

3. Rdd的join,groupBy,reduceByKey等操作

通過spark.default.parallelism控制shuffle readreduce處理的分區數,默認為運行任務的core的總數(mesos細粒度模式為8個,local模式為本地的core總數),官方建議設置成運行任務的core的2-3倍。

4. 提高executor的內存

通過spark.executor.memory適當提高executor的內存
通過spark.executor.cores增加每個executor的cpu,這樣不會減少task并行度

5. 是否存在數據傾斜的問題
  • 空值是否已經過濾?
  • 異常數據(某個key數據特別大)是否可以單獨處理?
  • 考慮改變數據分區規則
最后編輯于
?著作權歸作者所有,轉載或內容合作請聯系作者
平臺聲明:文章內容(如有圖片或視頻亦包括在內)由作者上傳并發布,文章內容僅代表作者本人觀點,簡書系信息發布平臺,僅提供信息存儲服務。
  • 序言:七十年代末,一起剝皮案震驚了整個濱河市,隨后出現的幾起案子,更是在濱河造成了極大的恐慌,老刑警劉巖,帶你破解...
    沈念sama閱讀 228,156評論 6 531
  • 序言:濱河連續發生了三起死亡事件,死亡現場離奇詭異,居然都是意外死亡,警方通過查閱死者的電腦和手機,發現死者居然都...
    沈念sama閱讀 98,401評論 3 415
  • 文/潘曉璐 我一進店門,熙熙樓的掌柜王于貴愁眉苦臉地迎上來,“玉大人,你說我怎么就攤上這事?!?“怎么了?”我有些...
    開封第一講書人閱讀 176,069評論 0 373
  • 文/不壞的土叔 我叫張陵,是天一觀的道長。 經常有香客問我,道長,這世上最難降的妖魔是什么? 我笑而不...
    開封第一講書人閱讀 62,873評論 1 309
  • 正文 為了忘掉前任,我火速辦了婚禮,結果婚禮上,老公的妹妹穿的比我還像新娘。我一直安慰自己,他們只是感情好,可當我...
    茶點故事閱讀 71,635評論 6 408
  • 文/花漫 我一把揭開白布。 她就那樣靜靜地躺著,像睡著了一般。 火紅的嫁衣襯著肌膚如雪。 梳的紋絲不亂的頭發上,一...
    開封第一講書人閱讀 55,128評論 1 323
  • 那天,我揣著相機與錄音,去河邊找鬼。 笑死,一個胖子當著我的面吹牛,可吹牛的內容都是我干的。 我是一名探鬼主播,決...
    沈念sama閱讀 43,203評論 3 441
  • 文/蒼蘭香墨 我猛地睜開眼,長吁一口氣:“原來是場噩夢啊……” “哼!你這毒婦竟也來了?” 一聲冷哼從身側響起,我...
    開封第一講書人閱讀 42,365評論 0 288
  • 序言:老撾萬榮一對情侶失蹤,失蹤者是張志新(化名)和其女友劉穎,沒想到半個月后,有當地人在樹林里發現了一具尸體,經...
    沈念sama閱讀 48,881評論 1 334
  • 正文 獨居荒郊野嶺守林人離奇死亡,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內容為張勛視角 年9月15日...
    茶點故事閱讀 40,733評論 3 354
  • 正文 我和宋清朗相戀三年,在試婚紗的時候發現自己被綠了。 大學時的朋友給我發了我未婚夫和他白月光在一起吃飯的照片。...
    茶點故事閱讀 42,935評論 1 369
  • 序言:一個原本活蹦亂跳的男人離奇死亡,死狀恐怖,靈堂內的尸體忽然破棺而出,到底是詐尸還是另有隱情,我是刑警寧澤,帶...
    沈念sama閱讀 38,475評論 5 358
  • 正文 年R本政府宣布,位于F島的核電站,受9級特大地震影響,放射性物質發生泄漏。R本人自食惡果不足惜,卻給世界環境...
    茶點故事閱讀 44,172評論 3 347
  • 文/蒙蒙 一、第九天 我趴在偏房一處隱蔽的房頂上張望。 院中可真熱鬧,春花似錦、人聲如沸。這莊子的主人今日做“春日...
    開封第一講書人閱讀 34,582評論 0 26
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽。三九已至,卻和暖如春,著一層夾襖步出監牢的瞬間,已是汗流浹背。 一陣腳步聲響...
    開封第一講書人閱讀 35,821評論 1 282
  • 我被黑心中介騙來泰國打工, 沒想到剛下飛機就差點兒被人妖公主榨干…… 1. 我叫王不留,地道東北人。 一個月前我還...
    沈念sama閱讀 51,595評論 3 390
  • 正文 我出身青樓,卻偏偏與公主長得像,于是被迫代替她去往敵國和親。 傳聞我的和親對象是個殘疾皇子,可洞房花燭夜當晚...
    茶點故事閱讀 47,908評論 2 372

推薦閱讀更多精彩內容

  • Apache Spark 是專為大規模數據處理而設計的快速通用的計算引擎。Spark是UC Berkeley AM...
    大佛愛讀書閱讀 2,846評論 0 20
  • 1、 性能調優 1.1、 分配更多資源 1.1.1、分配哪些資源? Executor的數量 每個Executor所...
    Frank_8942閱讀 4,561評論 2 36
  • 1.1、 分配更多資源 1.1.1、分配哪些資源? Executor的數量 每個Executor所能分配的CPU數...
    miss幸運閱讀 3,194評論 3 15
  • Spark是什么 a)是一種通用的大數據計算框架 b)Spark Core離線計算 Spark SQL交互式查詢 ...
    Alukar閱讀 1,819評論 0 19
  • spark-submit的時候如何引入外部jar包 在通過spark-submit提交任務時,可以通過添加配置參數...
    博弈史密斯閱讀 2,760評論 1 14