spark internal - 作業調度
作者:劉旭暉 Raymond 轉載請注明出處
Email:colorant at 163.com
BLOG:http://blog.csdn.net/colorant/
在Spark中作業調度的相關類最重要的就是DAGScheduler,DAGScheduler顧名思義就是基于DAG圖的Scheduler
DAG全稱 Directed Acyclic Graph,有向無環圖。簡單的來說,就是一個由頂點和有方向性的邊構成的圖中,從任意一個頂點出發,沒有任何一條路徑會將其帶回到出發的頂點。
在作業調度系統中,調度的基礎就在于判斷多個作業任務的依賴關系,這些任務之間可能存在多重的依賴關系,也就是說有些任務必須先獲得執行,然后另外的相關依賴任務才能執行,但是任務之間顯然不應該出現任何直接或間接的循環依賴關系,所以本質上這種關系適合用DAG有向無環圖來表示。
概括地描述DAGScheduler和TaskScheduler(關于TaskScheduler的相關細節,在我之前的關于Spark運行模式的文章中有)的功能劃分就是:TaskScheduler負責實際每個具體任務的物理調度,DAGScheduler負責將作業拆分成不同階段的具有依賴關系的多批任務,可以理解為DAGScheduler負責任務的邏輯調度。
基本概念
Task任務 :單個分區數據集上的最小處理流程單元
TaskSet任務集:一組關聯的,但是互相之間沒有Shuffle依賴關系的任務所組成的任務集
Stage調度階段:一個任務集所對應的調度階段
Job作業:一次RDD Action生成的一個或多個Stage所組成的一次計算作業
運行方式
DAGScheduler在SparkContext初始化過程中實例化,一個SparkContext對應一個DAGScheduler,DAGScheduler的事件循環邏輯基于Akka Actor的消息傳遞機制來構建,在DAGScheduler的Start函數中創建了一個eventProcessActor用來處理各種DAGSchedulerEvent,這些事件包括作業的提交,任務狀態的變化,監控等等
private[scheduler]case class JobSubmitted(
jobId: Int,
finalRDD: RDD[_],
func: (TaskContext, Iterator[_]) => _,
partitions: Array[Int],
allowLocal: Boolean,
callSite: String,
listener: JobListener,
properties: Properties = null)
extends DAGSchedulerEvent
private[scheduler]case class JobCancelled(jobId: Int) extends DAGSchedulerEvent
private[scheduler]case class JobGroupCancelled(groupId: String) extends DAGSchedulerEvent
private[scheduler]case object AllJobsCancelled extends DAGSchedulerEvent
private[scheduler]
case classBeginEvent(task: Task[_], taskInfo: TaskInfo) extends DAGSchedulerEvent
private[scheduler]
case classGettingResultEvent(task: Task[_], taskInfo: TaskInfo) extends DAGSchedulerEvent
private[scheduler]case class CompletionEvent(
task: Task[_],
reason: TaskEndReason,
result: Any,
accumUpdates: Map[Long, Any],
taskInfo: TaskInfo,
taskMetrics: TaskMetrics)
extends DAGSchedulerEvent
private[scheduler]case class ExecutorAdded(execId: String, host: String) extendsDAGSchedulerEvent
private[scheduler]case class ExecutorLost(execId: String) extends DAGSchedulerEvent
private[scheduler] caseclass TaskSetFailed(taskSet: TaskSet, reason: String) extends DAGSchedulerEvent
private[scheduler]case object ResubmitFailedStages extends DAGSchedulerEvent
private[scheduler]case object StopDAGScheduler extends DAGSchedulerEvent
不論是Client還是TaskScheduler與DAGScheduler的交互方式基本上都是通過DAGScheduler暴露的函數接口間接的給eventProcessActor發送相關消息
如前面所說,DAGScheduler最重要的任務之一就是計算作業和任務的依賴關系,制定調度邏輯
DAGScheduler作業調度的兩個主要入口是submitJob 和 runJob,兩者的區別在于前者返回一個Jobwaiter對象,可以用在異步調用中,用來判斷作業完成或者取消作業,runJob在內部調用submitJob,阻塞等待直到作業完成(或失敗)
具體往DAGScheduler提交作業的操作,基本都是封裝在RDD的相關Action操作里面,不需要用戶顯式的提交作業
用戶代碼都是基于RDD的一系列計算操作,實際運行時,這些計算操作是Lazy執行的,并不是所有的RDD操作都會觸發Spark往Cluster上提交實際作業,基本上只有一些需要返回數據或者向外部輸出的操作才會觸發實際計算工作,其它的變換操作基本上只是生成對應的RDD記錄依賴關系。
DAGScheduler內部維護了各種 task / stage / job之間的映射關系表
工作流程
提交并運行一個Job的基本流程,包括以下步驟
劃分Stage
當某個操作觸發計算,向DAGScheduler提交作業時,DAGScheduler需要從RDD依賴鏈最末端的RDD出發,遍歷整個RDD依賴鏈,劃分Stage任務階段,并決定各個Stage之間的依賴關系。Stage的劃分是以ShuffleDependency為依據的,也就是說當某個RDD的運算需要將數據進行Shuffle時,這個包含了Shuffle依賴關系的RDD將被用來作為輸入信息,構建一個新的Stage,由此為依據劃分Stage,可以確保有依賴關系的數據能夠按照正確的順序得到處理和運算。
以GroupByKey操作為例,該操作返回的結果實際上是一個ShuffleRDD,當DAGScheduler遍歷到這個ShuffleRDD的時候,因為其Dependency是一個ShuffleDependency,于是這個ShuffleRDD的父RDD以及shuffleDependency等對象就被用來構建一個新的Stage,這個Stage的輸出結果的分區方式,則由ShuffleDependency中的Partitioner對象來決定。
可以看到,盡管劃分和構建Stage的依據是ShuffleDependency,對應的RDD也就是這里的ShuffleRDD,但是這個Stage所處理的數據是從這個shuffleRDD的父RDD開始計算的,只是最終的輸出結果的位置信息參考了ShuffleRDD返回的ShuffleDependency里所包含的內容。而shuffleRDD本身的運算操作(其實就是一個獲取shuffle結果的過程),是在下一個Stage里進行的。
生成Job,提交Stage
上一個步驟得到一個或多個有依賴關系的Stage,其中直接觸發Job的RDD所關聯的Stage作為FinalStage生成一個Job實例,這兩者的關系進一步存儲在resultStageToJob映射表中,用于在該Stage全部完成時做一些后續處理,如報告狀態,清理Job相關數據等。
具體提交一個Stage時,首先判斷該Stage所依賴的父Stage的結果是否可用,如果所有父Stage的結果都可用,則提交該Stage,如果有任何一個父Stage的結果不可用,則迭代嘗試提交父Stage。 所有迭代過程中由于所依賴Stage的結果不可用而沒有提交成功的Stage都被放到waitingStages列表中等待將來被提交
什么時候waitingStages中的Stage會被重新提交呢,當一個屬于中間過程Stage的任務(這種類型的任務所對應的類為ShuffleMapTask)完成以后,DAGScheduler會檢查對應的Stage的所有任務是否都完成了,如果是都完成了,則DAGScheduler將重新掃描一次waitingStages中的所有Stage,檢查他們是否還有任何依賴的Stage沒有完成,如果沒有就可以提交該Stage。
此外每當完成一次DAGScheduler的事件循環以后,也會觸發一次從等待和失敗列表中掃描并提交就緒Stage的調用過程
此外每當完成一次DAGScheduler的事件循環以后,也會觸發一次從等待和失敗列表中掃描并提交就緒Stage的調用過程
任務集的提交
每個Stage的提交,最終是轉換成一個TaskSet任務集的提交,DAGScheduler通過TaskScheduler接口提交TaskSet,這個TaskSet最終會觸發TaskScheduler構建一個TaskSetManager的實例來管理這個TaskSet的生命周期,對于DAGScheduler來說提交Stage的工作到此就完成了。而TaskScheduler的具體實現則會在得到計算資源的時候,進一步通過TaskSetManager調度具體的Task到對應的Executor節點上進行運算
任務作業完成狀態的監控
要保證相互依賴的job/stage能夠得到順利的調度執行,DAGScheduler就必然需要監控當前Job / Stage乃至Task的完成情況。這是通過對外(主要是對TaskScheduler)暴露一系列的回調函數來實現的,對于TaskScheduler來說,這些回調函數主要包括任務的開始結束失敗,任務集的失敗,DAGScheduler根據這些Task的生命周期信息進一步維護Job和Stage的狀態信息。
此外TaskScheduler還可以通過回調函數通知DAGScheduler具體的Executor的生命狀態,如果某一個Executor崩潰了,或者由于任何原因與Driver失去聯系了,則對應的Stage的shuffleMapTask的輸出結果也將被標志為不可用,這也將導致對應Stage狀態的變更,進而影響相關Job的狀態,再進一步可能觸發對應Stage的重新提交來重新計算獲取相關的數據。
任務結果的獲取
一個具體的任務在Executor中執行完畢以后,其結果需要以某種形式返回給DAGScheduler,根據任務類型的不同,任務的結果的返回方式也不同
對于FinalStage所對應的任務(對應的類為ResultTask)返回給DAGScheduler的是運算結果本身,而對于ShuffleMapTask,返回給DAGScheduler的是一個MapStatus對象,MapStatus對象管理了ShuffleMapTask的運算輸出結果在BlockManager里的相關存儲信息,而非結果本身,這些存儲位置信息將作為下一個Stage的任務的獲取輸入數據的依據
而根據任務結果的大小的不同,ResultTask返回的結果又分為兩類,如果結果足夠小,則直接放在DirectTaskResult對象內,如果超過特定尺寸(默認約10MB)則在Executor端會將DirectTaskResult先序列化,再把序列化的結果作為一個Block存放在BlockManager里,而后將BlockManager返回的BlockID放在IndirectTaskResult對象中返回給TaskScheduler,TaskScheduler進而調用TaskResultGetter將IndirectTaskResult中的BlockID取出并通過BlockManager最終取得對應的DirectTaskResult。當然從DAGScheduler的角度來說,這些過程對它來說是透明的,它所獲得的都是任務的實際運算結果。
TaskSetManager
前面提到DAGScheduler負責將一組任務提交給TaskScheduler以后,這組任務的調度工作對它來說就算完成了,接下來這組任務內部的調度邏輯,則是由TaskSetManager來完成的。
TaskSetManager的主要接口包括:
ResourceOffer:根據TaskScheduler所提供的單個Resource資源包括host,executor和locality的要求返回一個合適的Task。TaskSetManager內部會根據上一個任務成功提交的時間,自動調整自身的Locality匹配策略,如果上一次成功提交任務的時間間隔很長,則降低對Locality的要求(例如從最差要求Process Local降低為最差要求Node Local),反之則提高對Locality的要求。這一動態調整Locality策略基本可以理解為是為了提高任務在最佳Locality的情況下得到運行的機會,因為Resource資源可能是在短期內分批提供給TaskSetManager的,動態調整Locality門檻有助于改善整體的Locality分布情況。
舉個例子,如果TaskSetManager內部有a/b兩個任務等待調度,a/b兩個任務Prefer的節點分別是Host A 和 Host B, 這時候先有一個Host C的資源以最差匹配為Rack Local的形式提供給TaskSetManager,如果沒有內部動態Locality調整機制,那么比如a任務將被調度。接下來在很短的時間間隔內,一個Host A的資源來到,同樣的b任務被調度。 而原本最佳的情況應該是任務b調度給Host C, 而任務a調度給Host A。
當然動態Locality也會帶來一定的調度延遲,因此如何設置合適的調整策略也是需要針對實際情況來確定的。目前可以設置參數包括
spark.locality.wait.process
spark.locality.wait.node
spark.locality.wait.rack
即各個Locality級別中TaskSetManager等待分配下一個任務的時間,如果距離上一次成功分配資源的時間間隔超過對應的參數值,則降低匹配要求(即process -> node -> rack -> any), 而每當成功分配一個任務時,則重置時間間隔,并更新Locality級別為當前成功分配的任務的Locality級別
handleSuccessfulTask / handleFailedTask /handleTaskGettingResult :用于更新任務的運行狀態,Taskset Manager在這些函數中除了更新自身維護的任務狀態列表等信息,用于剩余的任務的調度以外,也會進一步調用DAGScheduler的函數接口將結果通知給它。
此外,TaskSetManager在調度任務時還可能進一步考慮Speculation的情況,亦即當某個任務的運行時間超過其它任務的運行完成時間的一個特定比例值時,該任務可能被重復調度。目的當然是為了防止某個運行中的Task由于某些特殊原因(例如所在節點CPU負載過高,IO帶寬被占等等)運行特別緩慢拖延了整個Stage的完成時間,Speculation同樣需要根據集群和作業的實際情況合理配置,否則可能反而降低集群性能。
Pool 調度池
前面我們說了,DAGScheduler負責構建具有依賴關系的任務集,TaskSetManager負責在具體的任務集的內部調度任務,而TaskScheduler負責將資源提供給TaskSetManager供其作為調度任務的依據。但是每個SparkContext可能同時存在多個可運行的任務集(沒有依賴關系),這些任務集之間如何調度,則是由調度池(POOL)對象來決定的,Pool所管理的對象是下一級的Pool或者TaskSetManager對象
TaskSchedulerImpl在初始化過程中會根據用戶設定的SchedulingMode(默認為FIFO)創建一個rootPool根調度池,之后根據具體的調度模式再進一步創建SchedulableBuilder對象,具體的SchedulableBuilder對象的BuildPools方法將在rootPool的基礎上完成整個Pool的構建工作。
目前的實現有兩種調度模式,對應了兩種類型的Pool:
FIFO:先進先出型,FIFO Pool直接管理的是TaskSetManager,每個TaskSetManager創建時都存儲了其對應的StageID,FIFO pool最終根據StageID的順序來調度TaskSetManager
FAIR:公平調度,FAIR Pool管理的對象是下一級的POOL,或者TaskSetManager,公平調度的基本原則是根據所管理的Pool/TaskSetManager中正在運行的任務的數量來判斷優先級,用戶可以設置minShare最小任務數,weight任務權重來調整對應Pool里的任務集的優先程度。當采用公平調度模式時,目前所構建的調度池是兩級的結構,即根調度池管理一組子調度池,子調度池進一步管理屬于該調度池的TaskSetManager
公平調度模式的配置通過配置文件來管理,默認使用fairscheduler.xml文件,范例參見conf目錄下的模板:
<?xmlversionxmlversion="1.0"?>
<allocations>
<pool name="production">
<schedulingMode>FAIR</schedulingMode>
<weight>1</weight>
<minShare>2</minShare>
</pool>
<pool name="test">
<schedulingMode>FIFO</schedulingMode>
<weight>2</weight>
<minShare>3</minShare>
</pool>
</allocations>
由于這里的調度池是在SparkContext內部的調度,因此其調度范疇是一個基于該SparkContext的Spark應用程序,正常情況下,多個Spark應用程序之間在調度池層面是沒有調度優先級關系的。那么這種調度模式的應用場合是怎樣的呢? 舉一個例子就是SparkServer或者SharkServer,作為一個長期運行的SparkContext,他們代理運行了其它連上Server的Spark應用的任務,這樣你可以為每個鏈接按照用戶名指定一個Pool運行,從而實現用戶優先級和資源分配的合理調度等。
Spark應用之間的調度
在Mesos和YARN模式下,底層資源調度系統的調度策略由Mesos和YARN所決定,只有在Standalone模式下,Spark Master按照當前cluster資源是否滿足等待列表中的Spark應用 對內存和CPU資源的需求,而決定是否創建一個SparkContext對應的Driver,進而完成Spark應用的啟動過程,這可以粗略近似的認為是一種粗顆粒度的有條件的FIFO策略吧