XGBoost三種特征重要性計算方法對比

特征重要性作用與來源

? 特征重要性,我們一般用來觀察不同特征的貢獻度。排名靠前的,我們認為是重要的。這一思路,通常被用來做特征篩選。剔除貢獻度不高的尾部特征,增強模型的魯棒性,起到特征降維的作用。另一方面,則是用來做模型的課解釋性。我們期望的結果是:重要的特征是復合業務直覺的;符合業務直覺的特征排名靠前。在實際操作中,我們一般用樹模型的分類點來做文章。常用的就是XGB和其他一般樹模型。

XGB內置的三種特征重要性計算方法1--weight

xgb.plot_importance這是我們常用的繪制特征重要性的函數方法。其背后用到的貢獻度計算方法為weight。

\bullet ?'weight' - the number of times a feature is used to split the data across all trees.

簡單來說,就是在子樹模型分裂時,用到的特征次數。這里計算的是所有的樹。這個指標在R包里也稱為frequency2。

XGB內置的三種特征重要性計算方法2--gain

model.feature_importances_這是我們調用特征重要性數值時,用到的默認函數方法。其背后用到的貢獻度計算方法為gain。

\bullet ?'gain'-the average gain across all splits the feature is used in.

gain是信息增益的泛化概念。這里是指節點分裂時,該特征帶來信息增益(目標函數)優化的平均值。

XGB內置的三種特征重要性計算方法3--cover

model = XGBRFClassifier(importance_type = 'cover')這個計算方法,需要在定義模型時定義。之后再調用

model.feature_importances_得到的便是基于cover的貢獻度。

'cover' - the average coverage across all splits the feature is used in.

cover形象來說,就是樹模型在分裂時,特征下的葉子節點涵蓋的樣本數除以特征用來分裂的次數。分裂越靠近根部,cover值越大。

使用場景

weight將給予數值特征更高的值,因為它的變數越多,樹分裂時可切割的空間越大。所以這個指標,會掩蓋掉重要的枚舉特征。

gain用到了熵增的概念,它可以方便的找出最直接的特征。即如果某個特征下的0,在label下全是0,則這個特征一定會排的靠前。

cover對于枚舉特征,會更友好。同時,它沒有過度擬合目標函數。不接受目標函數的量綱影響。

調用他們的方式如下

# avaliable importance_types = ['weight','gain','cover','total_gain','total_cover']

f = "gain"

XGBClassifier.get_booster().get_score(importamce_type=f)

在實踐中,也會發現,gain排出來的順序的頭尾部值差距較大,這是因為信息增益計算時,后續的優化可能都不是一個量級。類似于神經網絡在優化損失函數時,后續的量綱可能是十倍、百倍的差異。所以,綜上而言,如果有下游業務方,更建議用cover的特征重要性計算方法。當然,如果是單純的模型調優,gain能指出最重要的特征。這些特征,某些場景下還能總結成硬規則。

其他重要計算方法4 -- permutation

除了上述內置的重要性計算方法外,還有其他其他第三方計算方式。

permutation:如果這個特征很重要,那么我們打散所有樣本中的該特征,則最后的優化目標將折損。這里的折損程度,就是特征的重要程度。由于其計算依賴單一特征,所以對非線形模型更友好。同時,如果特征中存在多重共線性,共線性的特征重要性都將非常靠后。這是因為混淆單一特征,不影響另一個特征的貢獻。這樣的結果是,即使特征很重要,也會排的很靠后。

針對多重共線特征,sklearn文檔中提到了一種解決方法:計算特征間的spearman rankk-order correlations,取得每一組中的頭部特征,再進行特征重要性計算。這種方法,實際上是在解決特征共線的問題。

其他模型的特征重要性計算方法

對于同樣的樹模型,Random Forest和GBDT,同樣也有內置的特征重要性。Random Forest使用rf.feature_importances_得到特征重要性。其中,分類任務計算的是gini不純度/信息熵。回歸任務計算的是樹的方差。這種基于不純度(Mean Decrease in Impurity)的方法,實際上會有兩個問題存在:(1)會給予變量空間更大的特征更多的關注,而二分類特征則會靠后。(2)結果的擬合是基于訓練集的,存在過擬合風險,沒有驗證集數據做驗證。

? ? 針對上述的問題,建議通過out-of-bag(OOB)方法,在剩下數據上做驗證,結合Permutation計算特征重要性。此外,GBDT也是基于不純度計算的特征重要性,不過其在單棵樹上,是回歸樹,所以不是基于gini系數,而是MSE或MAE。

? ? 至于為什么他們同為樹模型,且都是基于不存度計算的重要性,但結果不同。主要有兩個,一個是它們樹結構不同;第二個則是它們的優化對象不同。

?著作權歸作者所有,轉載或內容合作請聯系作者
  • 序言:七十年代末,一起剝皮案震驚了整個濱河市,隨后出現的幾起案子,更是在濱河造成了極大的恐慌,老刑警劉巖,帶你破解...
    沈念sama閱讀 227,702評論 6 531
  • 序言:濱河連續發生了三起死亡事件,死亡現場離奇詭異,居然都是意外死亡,警方通過查閱死者的電腦和手機,發現死者居然都...
    沈念sama閱讀 98,143評論 3 415
  • 文/潘曉璐 我一進店門,熙熙樓的掌柜王于貴愁眉苦臉地迎上來,“玉大人,你說我怎么就攤上這事。” “怎么了?”我有些...
    開封第一講書人閱讀 175,553評論 0 373
  • 文/不壞的土叔 我叫張陵,是天一觀的道長。 經常有香客問我,道長,這世上最難降的妖魔是什么? 我笑而不...
    開封第一講書人閱讀 62,620評論 1 307
  • 正文 為了忘掉前任,我火速辦了婚禮,結果婚禮上,老公的妹妹穿的比我還像新娘。我一直安慰自己,他們只是感情好,可當我...
    茶點故事閱讀 71,416評論 6 405
  • 文/花漫 我一把揭開白布。 她就那樣靜靜地躺著,像睡著了一般。 火紅的嫁衣襯著肌膚如雪。 梳的紋絲不亂的頭發上,一...
    開封第一講書人閱讀 54,940評論 1 321
  • 那天,我揣著相機與錄音,去河邊找鬼。 笑死,一個胖子當著我的面吹牛,可吹牛的內容都是我干的。 我是一名探鬼主播,決...
    沈念sama閱讀 43,024評論 3 440
  • 文/蒼蘭香墨 我猛地睜開眼,長吁一口氣:“原來是場噩夢啊……” “哼!你這毒婦竟也來了?” 一聲冷哼從身側響起,我...
    開封第一講書人閱讀 42,170評論 0 287
  • 序言:老撾萬榮一對情侶失蹤,失蹤者是張志新(化名)和其女友劉穎,沒想到半個月后,有當地人在樹林里發現了一具尸體,經...
    沈念sama閱讀 48,709評論 1 333
  • 正文 獨居荒郊野嶺守林人離奇死亡,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內容為張勛視角 年9月15日...
    茶點故事閱讀 40,597評論 3 354
  • 正文 我和宋清朗相戀三年,在試婚紗的時候發現自己被綠了。 大學時的朋友給我發了我未婚夫和他白月光在一起吃飯的照片。...
    茶點故事閱讀 42,784評論 1 369
  • 序言:一個原本活蹦亂跳的男人離奇死亡,死狀恐怖,靈堂內的尸體忽然破棺而出,到底是詐尸還是另有隱情,我是刑警寧澤,帶...
    沈念sama閱讀 38,291評論 5 357
  • 正文 年R本政府宣布,位于F島的核電站,受9級特大地震影響,放射性物質發生泄漏。R本人自食惡果不足惜,卻給世界環境...
    茶點故事閱讀 44,029評論 3 347
  • 文/蒙蒙 一、第九天 我趴在偏房一處隱蔽的房頂上張望。 院中可真熱鬧,春花似錦、人聲如沸。這莊子的主人今日做“春日...
    開封第一講書人閱讀 34,407評論 0 25
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽。三九已至,卻和暖如春,著一層夾襖步出監牢的瞬間,已是汗流浹背。 一陣腳步聲響...
    開封第一講書人閱讀 35,663評論 1 280
  • 我被黑心中介騙來泰國打工, 沒想到剛下飛機就差點兒被人妖公主榨干…… 1. 我叫王不留,地道東北人。 一個月前我還...
    沈念sama閱讀 51,403評論 3 390
  • 正文 我出身青樓,卻偏偏與公主長得像,于是被迫代替她去往敵國和親。 傳聞我的和親對象是個殘疾皇子,可洞房花燭夜當晚...
    茶點故事閱讀 47,746評論 2 370

推薦閱讀更多精彩內容