李航-第4章樸素貝葉斯法

什么是條件概率?

所謂"條件概率"(Conditional probability),就是指在事件B發生的情況下,事件A發生的概率,用P(A|B)來表示。


文氏圖.jpg

根據文氏圖,可以很清楚地看到在事件B發生的情況下,事件A發生的概率就是P(A∩B)除以P(B)。
即:P(A|B)=P(A∩B) / P(B),
因此,P(A∩B) = P(A|B)P(B),
同理,P(A∩B) = P(B|A)P(A),
所以,P(A|B)P(B) = P(B|A)P(A)
可得:P(A|B) = P(B|A)P(A) / P(B),這就是條件概率的計算公式。

我們把P(A)稱為"先驗概率"(Prior probability),即在B事件發生之前,我們對A事件概率的一個判斷。P(A|B)稱為"后驗概率"(Posterior probability),即在B事件發生之后,我們對A事件概率的重新評估。P(B|A)/P(B)稱為"可能性函數"(Likelyhood),這是一個調整因子,使得預估概率更接近真實概率。另外,可延伸學習全概率公式。

參考鏈接:貝葉斯推斷及其互聯網應用(一):定理簡介

貝葉斯理論

樸素貝葉斯法是基于貝葉斯定理與特征條件獨立假設的分類方法。對于給定的訓練數據集,首先基于特征條件獨立假設學習輸入/輸出的聯合概率分布;然后基于此模型,對給定的輸入x,利用貝葉斯定理求出后驗概率最大的輸出y。

樸素貝葉斯法的優點:實現簡單,學習和預測的效率很高,較為常用。缺點是分類的性能不一定很高。

樸素貝葉斯法實際上學習到生成數據的機制,所以屬于生成模型。

樸素貝葉斯的參數估計

后驗概率最大化的含義:樸素貝葉斯法將實例分到后驗概率最大的類中,這等價于期望風險最小化。

什么是極大似然估計?

總結起來,最大似然估計的目的就是:利用已知的樣本結果,反推最有可能(最大概率)導致這樣結果的參數值。

原理:極大似然估計是建立在極大似然原理的基礎上的一個統計方法,是概率論在統計學中的應用。極大似然估計提供了一種給定觀察數據來評估模型參數的方法,即:“模型已定,參數未知”。通過若干次試驗,觀察其結果,利用試驗結果得到某個參數值能夠使樣本出現的概率為最大,則稱為極大似然估計。

書看上的不是很懂,看看下面的圖片理解起來好一些。

極大似然估計.jpg

參考鏈接:
詳解最大似然估計(MLE)
極大似然估計詳解

樸素貝葉斯模型及推導過程

樸素貝葉斯即是即是根據期望風險最小化準則得到后驗概率最大化準則,
后驗概率最大化.jpg
樸素貝葉斯分類器.jpg
樸素貝葉斯的過程及算法
樸素貝葉斯算法.jpg
貝葉斯估計
scikit-learn實例(關鍵是多看scikit_learn文檔,多熟悉例子)
In [1]: import numpy as np
   ...: import pandas as pd
   ...: import matplotlib.pyplot as plt
   ...: 
   ...: from sklearn.datasets import load_iris
   ...: from sklearn.model_selection import train_test_split
In [4]: # 生成源數據
   ...: def create_data():
   ...:     iris = load_iris()
   ...:     df = pd.DataFrame(iris.data, columns=iris.feature_names)
   ...:     df['label'] = iris.target
   ...:     df.columns = ['sepal length','sepal width','petal length','petal width','label']
   ...:     data = np.array(df.iloc[:100,:])
   ...:     return data[:,:-1],data[:,-1]
   ...: 
# 切割數據
In [5]: X, y = create_data()
   ...: X_train,X_test,y_train,y_test = train_test_split(X, y, test_size=0.3)
   ...: 
In [6]: X_test[0],y_test[0]
Out[6]: (array([5.7, 2.8, 4.1, 1.3]), 1.0)

In [7]: # sklearn.naive_bayes。這里用的是高斯模型,此外還有伯努利模型和多項式模型
   ...: from sklearn.naive_bayes import GaussianNB

# 訓練數據,并進行測試集驗證
In [11]: clf = GaussianNB()
    ...: clf.fit(X_train,y_train)
    ...: 
Out[11]: GaussianNB(priors=None)
In [12]: clf.score(X_test,y_test)
Out[12]: 1.0

#挑個數據預測下
In [13]: clf.predict([6.3,3.3,4.7,1.6])
Out[13]: array([1.])

參考鏈接:
樸素貝葉斯
《統計學習方法》知乎參考讀物
最大似然估計和最大后驗估計
一文搞懂極大似然估計
詳解最大似然估計(MLE)、最大后驗概率估計(MAP),以及貝葉斯公式的理解
極大似然估計詳解

最后編輯于
?著作權歸作者所有,轉載或內容合作請聯系作者
  • 序言:七十年代末,一起剝皮案震驚了整個濱河市,隨后出現的幾起案子,更是在濱河造成了極大的恐慌,老刑警劉巖,帶你破解...
    沈念sama閱讀 227,428評論 6 531
  • 序言:濱河連續發生了三起死亡事件,死亡現場離奇詭異,居然都是意外死亡,警方通過查閱死者的電腦和手機,發現死者居然都...
    沈念sama閱讀 98,024評論 3 413
  • 文/潘曉璐 我一進店門,熙熙樓的掌柜王于貴愁眉苦臉地迎上來,“玉大人,你說我怎么就攤上這事。” “怎么了?”我有些...
    開封第一講書人閱讀 175,285評論 0 373
  • 文/不壞的土叔 我叫張陵,是天一觀的道長。 經常有香客問我,道長,這世上最難降的妖魔是什么? 我笑而不...
    開封第一講書人閱讀 62,548評論 1 307
  • 正文 為了忘掉前任,我火速辦了婚禮,結果婚禮上,老公的妹妹穿的比我還像新娘。我一直安慰自己,他們只是感情好,可當我...
    茶點故事閱讀 71,328評論 6 404
  • 文/花漫 我一把揭開白布。 她就那樣靜靜地躺著,像睡著了一般。 火紅的嫁衣襯著肌膚如雪。 梳的紋絲不亂的頭發上,一...
    開封第一講書人閱讀 54,878評論 1 321
  • 那天,我揣著相機與錄音,去河邊找鬼。 笑死,一個胖子當著我的面吹牛,可吹牛的內容都是我干的。 我是一名探鬼主播,決...
    沈念sama閱讀 42,971評論 3 439
  • 文/蒼蘭香墨 我猛地睜開眼,長吁一口氣:“原來是場噩夢啊……” “哼!你這毒婦竟也來了?” 一聲冷哼從身側響起,我...
    開封第一講書人閱讀 42,098評論 0 286
  • 序言:老撾萬榮一對情侶失蹤,失蹤者是張志新(化名)和其女友劉穎,沒想到半個月后,有當地人在樹林里發現了一具尸體,經...
    沈念sama閱讀 48,616評論 1 331
  • 正文 獨居荒郊野嶺守林人離奇死亡,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內容為張勛視角 年9月15日...
    茶點故事閱讀 40,554評論 3 354
  • 正文 我和宋清朗相戀三年,在試婚紗的時候發現自己被綠了。 大學時的朋友給我發了我未婚夫和他白月光在一起吃飯的照片。...
    茶點故事閱讀 42,725評論 1 369
  • 序言:一個原本活蹦亂跳的男人離奇死亡,死狀恐怖,靈堂內的尸體忽然破棺而出,到底是詐尸還是另有隱情,我是刑警寧澤,帶...
    沈念sama閱讀 38,243評論 5 355
  • 正文 年R本政府宣布,位于F島的核電站,受9級特大地震影響,放射性物質發生泄漏。R本人自食惡果不足惜,卻給世界環境...
    茶點故事閱讀 43,971評論 3 345
  • 文/蒙蒙 一、第九天 我趴在偏房一處隱蔽的房頂上張望。 院中可真熱鬧,春花似錦、人聲如沸。這莊子的主人今日做“春日...
    開封第一講書人閱讀 34,361評論 0 25
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽。三九已至,卻和暖如春,著一層夾襖步出監牢的瞬間,已是汗流浹背。 一陣腳步聲響...
    開封第一講書人閱讀 35,613評論 1 280
  • 我被黑心中介騙來泰國打工, 沒想到剛下飛機就差點兒被人妖公主榨干…… 1. 我叫王不留,地道東北人。 一個月前我還...
    沈念sama閱讀 51,339評論 3 390
  • 正文 我出身青樓,卻偏偏與公主長得像,于是被迫代替她去往敵國和親。 傳聞我的和親對象是個殘疾皇子,可洞房花燭夜當晚...
    茶點故事閱讀 47,695評論 2 370

推薦閱讀更多精彩內容