spark internal - 作業調度

spark internal - 作業調度

作者:劉旭暉 Raymond 轉載請注明出處
Email:colorant at 163.com
BLOG:http://blog.csdn.net/colorant/

在Spark中作業調度的相關類最重要的就是DAGScheduler,DAGScheduler顧名思義就是基于DAG圖的Scheduler

DAG全稱 Directed Acyclic Graph,有向無環圖。簡單的來說,就是一個由頂點和有方向性的邊構成的圖中,從任意一個頂點出發,沒有任何一條路徑會將其帶回到出發的頂點。

在作業調度系統中,調度的基礎就在于判斷多個作業任務的依賴關系,這些任務之間可能存在多重的依賴關系,也就是說有些任務必須先獲得執行,然后另外的相關依賴任務才能執行,但是任務之間顯然不應該出現任何直接或間接的循環依賴關系,所以本質上這種關系適合用DAG有向無環圖來表示。

概括地描述DAGScheduler和TaskScheduler(關于TaskScheduler的相關細節,在我之前的關于Spark運行模式的文章中有)的功能劃分就是:TaskScheduler負責實際每個具體任務的物理調度,DAGScheduler負責將作業拆分成不同階段的具有依賴關系的多批任務,可以理解為DAGScheduler負責任務的邏輯調度。

基本概念

Task任務 :單個分區數據集上的最小處理流程單元
TaskSet任務集:一組關聯的,但是互相之間沒有Shuffle依賴關系的任務所組成的任務集
Stage調度階段:一個任務集所對應的調度階段
Job作業:一次RDD Action生成的一個或多個Stage所組成的一次計算作業

運行方式

DAGScheduler在SparkContext初始化過程中實例化,一個SparkContext對應一個DAGScheduler,DAGScheduler的事件循環邏輯基于Akka Actor的消息傳遞機制來構建,在DAGScheduler的Start函數中創建了一個eventProcessActor用來處理各種DAGSchedulerEvent,這些事件包括作業的提交,任務狀態的變化,監控等等

private[scheduler]case class JobSubmitted(
jobId: Int,
finalRDD: RDD[_],
func: (TaskContext, Iterator[_]) => _,
partitions: Array[Int],
allowLocal: Boolean,
callSite: String,
listener: JobListener,
properties: Properties = null)
extends DAGSchedulerEvent

private[scheduler]case class JobCancelled(jobId: Int) extends DAGSchedulerEvent
private[scheduler]case class JobGroupCancelled(groupId: String) extends DAGSchedulerEvent
private[scheduler]case object AllJobsCancelled extends DAGSchedulerEvent
private[scheduler]
case classBeginEvent(task: Task[_], taskInfo: TaskInfo) extends DAGSchedulerEvent

private[scheduler]
case classGettingResultEvent(task: Task[_], taskInfo: TaskInfo) extends DAGSchedulerEvent

private[scheduler]case class CompletionEvent(
task: Task[_],
reason: TaskEndReason,
result: Any,
accumUpdates: Map[Long, Any],
taskInfo: TaskInfo,
taskMetrics: TaskMetrics)
extends DAGSchedulerEvent

private[scheduler]case class ExecutorAdded(execId: String, host: String) extendsDAGSchedulerEvent
private[scheduler]case class ExecutorLost(execId: String) extends DAGSchedulerEvent
private[scheduler]  caseclass TaskSetFailed(taskSet: TaskSet, reason: String) extends DAGSchedulerEvent
private[scheduler]case object ResubmitFailedStages extends DAGSchedulerEvent
private[scheduler]case object StopDAGScheduler extends DAGSchedulerEvent

不論是Client還是TaskScheduler與DAGScheduler的交互方式基本上都是通過DAGScheduler暴露的函數接口間接的給eventProcessActor發送相關消息

如前面所說,DAGScheduler最重要的任務之一就是計算作業和任務的依賴關系,制定調度邏輯

DAGScheduler作業調度的兩個主要入口是submitJob 和 runJob,兩者的區別在于前者返回一個Jobwaiter對象,可以用在異步調用中,用來判斷作業完成或者取消作業,runJob在內部調用submitJob,阻塞等待直到作業完成(或失敗)

具體往DAGScheduler提交作業的操作,基本都是封裝在RDD的相關Action操作里面,不需要用戶顯式的提交作業

用戶代碼都是基于RDD的一系列計算操作,實際運行時,這些計算操作是Lazy執行的,并不是所有的RDD操作都會觸發Spark往Cluster上提交實際作業,基本上只有一些需要返回數據或者向外部輸出的操作才會觸發實際計算工作,其它的變換操作基本上只是生成對應的RDD記錄依賴關系。

DAGScheduler內部維護了各種 task / stage / job之間的映射關系表

工作流程

提交并運行一個Job的基本流程,包括以下步驟

劃分Stage
當某個操作觸發計算,向DAGScheduler提交作業時,DAGScheduler需要從RDD依賴鏈最末端的RDD出發,遍歷整個RDD依賴鏈,劃分Stage任務階段,并決定各個Stage之間的依賴關系。Stage的劃分是以ShuffleDependency為依據的,也就是說當某個RDD的運算需要將數據進行Shuffle時,這個包含了Shuffle依賴關系的RDD將被用來作為輸入信息,構建一個新的Stage,由此為依據劃分Stage,可以確保有依賴關系的數據能夠按照正確的順序得到處理和運算。

以GroupByKey操作為例,該操作返回的結果實際上是一個ShuffleRDD,當DAGScheduler遍歷到這個ShuffleRDD的時候,因為其Dependency是一個ShuffleDependency,于是這個ShuffleRDD的父RDD以及shuffleDependency等對象就被用來構建一個新的Stage,這個Stage的輸出結果的分區方式,則由ShuffleDependency中的Partitioner對象來決定。

可以看到,盡管劃分和構建Stage的依據是ShuffleDependency,對應的RDD也就是這里的ShuffleRDD,但是這個Stage所處理的數據是從這個shuffleRDD的父RDD開始計算的,只是最終的輸出結果的位置信息參考了ShuffleRDD返回的ShuffleDependency里所包含的內容。而shuffleRDD本身的運算操作(其實就是一個獲取shuffle結果的過程),是在下一個Stage里進行的。

生成Job,提交Stage
上一個步驟得到一個或多個有依賴關系的Stage,其中直接觸發Job的RDD所關聯的Stage作為FinalStage生成一個Job實例,這兩者的關系進一步存儲在resultStageToJob映射表中,用于在該Stage全部完成時做一些后續處理,如報告狀態,清理Job相關數據等。

具體提交一個Stage時,首先判斷該Stage所依賴的父Stage的結果是否可用,如果所有父Stage的結果都可用,則提交該Stage,如果有任何一個父Stage的結果不可用,則迭代嘗試提交父Stage。 所有迭代過程中由于所依賴Stage的結果不可用而沒有提交成功的Stage都被放到waitingStages列表中等待將來被提交

什么時候waitingStages中的Stage會被重新提交呢,當一個屬于中間過程Stage的任務(這種類型的任務所對應的類為ShuffleMapTask)完成以后,DAGScheduler會檢查對應的Stage的所有任務是否都完成了,如果是都完成了,則DAGScheduler將重新掃描一次waitingStages中的所有Stage,檢查他們是否還有任何依賴的Stage沒有完成,如果沒有就可以提交該Stage。

此外每當完成一次DAGScheduler的事件循環以后,也會觸發一次從等待和失敗列表中掃描并提交就緒Stage的調用過程

此外每當完成一次DAGScheduler的事件循環以后,也會觸發一次從等待和失敗列表中掃描并提交就緒Stage的調用過程

任務集的提交

每個Stage的提交,最終是轉換成一個TaskSet任務集的提交,DAGScheduler通過TaskScheduler接口提交TaskSet,這個TaskSet最終會觸發TaskScheduler構建一個TaskSetManager的實例來管理這個TaskSet的生命周期,對于DAGScheduler來說提交Stage的工作到此就完成了。而TaskScheduler的具體實現則會在得到計算資源的時候,進一步通過TaskSetManager調度具體的Task到對應的Executor節點上進行運算

任務作業完成狀態的監控

要保證相互依賴的job/stage能夠得到順利的調度執行,DAGScheduler就必然需要監控當前Job / Stage乃至Task的完成情況。這是通過對外(主要是對TaskScheduler)暴露一系列的回調函數來實現的,對于TaskScheduler來說,這些回調函數主要包括任務的開始結束失敗,任務集的失敗,DAGScheduler根據這些Task的生命周期信息進一步維護Job和Stage的狀態信息。

此外TaskScheduler還可以通過回調函數通知DAGScheduler具體的Executor的生命狀態,如果某一個Executor崩潰了,或者由于任何原因與Driver失去聯系了,則對應的Stage的shuffleMapTask的輸出結果也將被標志為不可用,這也將導致對應Stage狀態的變更,進而影響相關Job的狀態,再進一步可能觸發對應Stage的重新提交來重新計算獲取相關的數據。

任務結果的獲取
一個具體的任務在Executor中執行完畢以后,其結果需要以某種形式返回給DAGScheduler,根據任務類型的不同,任務的結果的返回方式也不同

對于FinalStage所對應的任務(對應的類為ResultTask)返回給DAGScheduler的是運算結果本身,而對于ShuffleMapTask,返回給DAGScheduler的是一個MapStatus對象,MapStatus對象管理了ShuffleMapTask的運算輸出結果在BlockManager里的相關存儲信息,而非結果本身,這些存儲位置信息將作為下一個Stage的任務的獲取輸入數據的依據

而根據任務結果的大小的不同,ResultTask返回的結果又分為兩類,如果結果足夠小,則直接放在DirectTaskResult對象內,如果超過特定尺寸(默認約10MB)則在Executor端會將DirectTaskResult先序列化,再把序列化的結果作為一個Block存放在BlockManager里,而后將BlockManager返回的BlockID放在IndirectTaskResult對象中返回給TaskScheduler,TaskScheduler進而調用TaskResultGetter將IndirectTaskResult中的BlockID取出并通過BlockManager最終取得對應的DirectTaskResult。當然從DAGScheduler的角度來說,這些過程對它來說是透明的,它所獲得的都是任務的實際運算結果。

TaskSetManager

前面提到DAGScheduler負責將一組任務提交給TaskScheduler以后,這組任務的調度工作對它來說就算完成了,接下來這組任務內部的調度邏輯,則是由TaskSetManager來完成的。

TaskSetManager的主要接口包括:

ResourceOffer:根據TaskScheduler所提供的單個Resource資源包括host,executor和locality的要求返回一個合適的Task。TaskSetManager內部會根據上一個任務成功提交的時間,自動調整自身的Locality匹配策略,如果上一次成功提交任務的時間間隔很長,則降低對Locality的要求(例如從最差要求Process Local降低為最差要求Node Local),反之則提高對Locality的要求。這一動態調整Locality策略基本可以理解為是為了提高任務在最佳Locality的情況下得到運行的機會,因為Resource資源可能是在短期內分批提供給TaskSetManager的,動態調整Locality門檻有助于改善整體的Locality分布情況。

舉個例子,如果TaskSetManager內部有a/b兩個任務等待調度,a/b兩個任務Prefer的節點分別是Host A 和 Host B, 這時候先有一個Host C的資源以最差匹配為Rack Local的形式提供給TaskSetManager,如果沒有內部動態Locality調整機制,那么比如a任務將被調度。接下來在很短的時間間隔內,一個Host A的資源來到,同樣的b任務被調度。 而原本最佳的情況應該是任務b調度給Host C, 而任務a調度給Host A。

當然動態Locality也會帶來一定的調度延遲,因此如何設置合適的調整策略也是需要針對實際情況來確定的。目前可以設置參數包括

spark.locality.wait.process
spark.locality.wait.node
spark.locality.wait.rack

即各個Locality級別中TaskSetManager等待分配下一個任務的時間,如果距離上一次成功分配資源的時間間隔超過對應的參數值,則降低匹配要求(即process -> node -> rack -> any), 而每當成功分配一個任務時,則重置時間間隔,并更新Locality級別為當前成功分配的任務的Locality級別

handleSuccessfulTask / handleFailedTask /handleTaskGettingResult :用于更新任務的運行狀態,Taskset Manager在這些函數中除了更新自身維護的任務狀態列表等信息,用于剩余的任務的調度以外,也會進一步調用DAGScheduler的函數接口將結果通知給它。

此外,TaskSetManager在調度任務時還可能進一步考慮Speculation的情況,亦即當某個任務的運行時間超過其它任務的運行完成時間的一個特定比例值時,該任務可能被重復調度。目的當然是為了防止某個運行中的Task由于某些特殊原因(例如所在節點CPU負載過高,IO帶寬被占等等)運行特別緩慢拖延了整個Stage的完成時間,Speculation同樣需要根據集群和作業的實際情況合理配置,否則可能反而降低集群性能。

Pool 調度池

前面我們說了,DAGScheduler負責構建具有依賴關系的任務集,TaskSetManager負責在具體的任務集的內部調度任務,而TaskScheduler負責將資源提供給TaskSetManager供其作為調度任務的依據。但是每個SparkContext可能同時存在多個可運行的任務集(沒有依賴關系),這些任務集之間如何調度,則是由調度池(POOL)對象來決定的,Pool所管理的對象是下一級的Pool或者TaskSetManager對象

TaskSchedulerImpl在初始化過程中會根據用戶設定的SchedulingMode(默認為FIFO)創建一個rootPool根調度池,之后根據具體的調度模式再進一步創建SchedulableBuilder對象,具體的SchedulableBuilder對象的BuildPools方法將在rootPool的基礎上完成整個Pool的構建工作。

目前的實現有兩種調度模式,對應了兩種類型的Pool:

FIFO:先進先出型,FIFO Pool直接管理的是TaskSetManager,每個TaskSetManager創建時都存儲了其對應的StageID,FIFO pool最終根據StageID的順序來調度TaskSetManager

FAIR:公平調度,FAIR Pool管理的對象是下一級的POOL,或者TaskSetManager,公平調度的基本原則是根據所管理的Pool/TaskSetManager中正在運行的任務的數量來判斷優先級,用戶可以設置minShare最小任務數,weight任務權重來調整對應Pool里的任務集的優先程度。當采用公平調度模式時,目前所構建的調度池是兩級的結構,即根調度池管理一組子調度池,子調度池進一步管理屬于該調度池的TaskSetManager

公平調度模式的配置通過配置文件來管理,默認使用fairscheduler.xml文件,范例參見conf目錄下的模板:

 <?xmlversionxmlversion="1.0"?>  
 <allocations>  
 <pool name="production">  
 <schedulingMode>FAIR</schedulingMode>  
 <weight>1</weight>  
 <minShare>2</minShare>  
 </pool>  
 <pool name="test">  
 <schedulingMode>FIFO</schedulingMode>  
 <weight>2</weight>  
 <minShare>3</minShare>  
 </pool>  
 </allocations>  

由于這里的調度池是在SparkContext內部的調度,因此其調度范疇是一個基于該SparkContext的Spark應用程序,正常情況下,多個Spark應用程序之間在調度池層面是沒有調度優先級關系的。那么這種調度模式的應用場合是怎樣的呢? 舉一個例子就是SparkServer或者SharkServer,作為一個長期運行的SparkContext,他們代理運行了其它連上Server的Spark應用的任務,這樣你可以為每個鏈接按照用戶名指定一個Pool運行,從而實現用戶優先級和資源分配的合理調度等。

Spark應用之間的調度

在Mesos和YARN模式下,底層資源調度系統的調度策略由Mesos和YARN所決定,只有在Standalone模式下,Spark Master按照當前cluster資源是否滿足等待列表中的Spark應用 對內存和CPU資源的需求,而決定是否創建一個SparkContext對應的Driver,進而完成Spark應用的啟動過程,這可以粗略近似的認為是一種粗顆粒度的有條件的FIFO策略吧

最后編輯于
?著作權歸作者所有,轉載或內容合作請聯系作者
平臺聲明:文章內容(如有圖片或視頻亦包括在內)由作者上傳并發布,文章內容僅代表作者本人觀點,簡書系信息發布平臺,僅提供信息存儲服務。
  • 序言:七十年代末,一起剝皮案震驚了整個濱河市,隨后出現的幾起案子,更是在濱河造成了極大的恐慌,老刑警劉巖,帶你破解...
    沈念sama閱讀 229,460評論 6 538
  • 序言:濱河連續發生了三起死亡事件,死亡現場離奇詭異,居然都是意外死亡,警方通過查閱死者的電腦和手機,發現死者居然都...
    沈念sama閱讀 99,067評論 3 423
  • 文/潘曉璐 我一進店門,熙熙樓的掌柜王于貴愁眉苦臉地迎上來,“玉大人,你說我怎么就攤上這事。” “怎么了?”我有些...
    開封第一講書人閱讀 177,467評論 0 382
  • 文/不壞的土叔 我叫張陵,是天一觀的道長。 經常有香客問我,道長,這世上最難降的妖魔是什么? 我笑而不...
    開封第一講書人閱讀 63,468評論 1 316
  • 正文 為了忘掉前任,我火速辦了婚禮,結果婚禮上,老公的妹妹穿的比我還像新娘。我一直安慰自己,他們只是感情好,可當我...
    茶點故事閱讀 72,184評論 6 410
  • 文/花漫 我一把揭開白布。 她就那樣靜靜地躺著,像睡著了一般。 火紅的嫁衣襯著肌膚如雪。 梳的紋絲不亂的頭發上,一...
    開封第一講書人閱讀 55,582評論 1 325
  • 那天,我揣著相機與錄音,去河邊找鬼。 笑死,一個胖子當著我的面吹牛,可吹牛的內容都是我干的。 我是一名探鬼主播,決...
    沈念sama閱讀 43,616評論 3 444
  • 文/蒼蘭香墨 我猛地睜開眼,長吁一口氣:“原來是場噩夢啊……” “哼!你這毒婦竟也來了?” 一聲冷哼從身側響起,我...
    開封第一講書人閱讀 42,794評論 0 289
  • 序言:老撾萬榮一對情侶失蹤,失蹤者是張志新(化名)和其女友劉穎,沒想到半個月后,有當地人在樹林里發現了一具尸體,經...
    沈念sama閱讀 49,343評論 1 335
  • 正文 獨居荒郊野嶺守林人離奇死亡,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內容為張勛視角 年9月15日...
    茶點故事閱讀 41,096評論 3 356
  • 正文 我和宋清朗相戀三年,在試婚紗的時候發現自己被綠了。 大學時的朋友給我發了我未婚夫和他白月光在一起吃飯的照片。...
    茶點故事閱讀 43,291評論 1 371
  • 序言:一個原本活蹦亂跳的男人離奇死亡,死狀恐怖,靈堂內的尸體忽然破棺而出,到底是詐尸還是另有隱情,我是刑警寧澤,帶...
    沈念sama閱讀 38,863評論 5 362
  • 正文 年R本政府宣布,位于F島的核電站,受9級特大地震影響,放射性物質發生泄漏。R本人自食惡果不足惜,卻給世界環境...
    茶點故事閱讀 44,513評論 3 348
  • 文/蒙蒙 一、第九天 我趴在偏房一處隱蔽的房頂上張望。 院中可真熱鬧,春花似錦、人聲如沸。這莊子的主人今日做“春日...
    開封第一講書人閱讀 34,941評論 0 28
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽。三九已至,卻和暖如春,著一層夾襖步出監牢的瞬間,已是汗流浹背。 一陣腳步聲響...
    開封第一講書人閱讀 36,190評論 1 291
  • 我被黑心中介騙來泰國打工, 沒想到剛下飛機就差點兒被人妖公主榨干…… 1. 我叫王不留,地道東北人。 一個月前我還...
    沈念sama閱讀 52,026評論 3 396
  • 正文 我出身青樓,卻偏偏與公主長得像,于是被迫代替她去往敵國和親。 傳聞我的和親對象是個殘疾皇子,可洞房花燭夜當晚...
    茶點故事閱讀 48,253評論 2 375

推薦閱讀更多精彩內容