import numpy as np
def sigmoid(x):
return 1.0 / (1 + np.exp(-x))
def batch_grad_ascent(X_train, y_train, alpha, n_iter):
“”“批梯度下降”“”
X_train = np.mat(X_train)
y_train = np.mat(y_train).transpose()
m, n = shpae(X_train)
weighs = np.ones((n, 1))
for k in range(n_iter):
hx = sigmoid(weighs * X_train)
error = y_train - hx
weighs += alpha * X_train.transpose() * error
return weights
def stoc_grad_ascent(X_train, y_train, alpha):
“”“隨機梯度下降”“”
m, n = shape(X_train)
weights = np.ones((n, 1))
for i in range(m):
h = sigmoid(np.sum(weights * X_train[i]))
error = y_train[i] - h
weights += alpha * error * X_train[i]
return weights
邏輯回歸 批梯度下降和隨機梯度下降 python實現
最后編輯于 :
?著作權歸作者所有,轉載或內容合作請聯系作者
平臺聲明:文章內容(如有圖片或視頻亦包括在內)由作者上傳并發布,文章內容僅代表作者本人觀點,簡書系信息發布平臺,僅提供信息存儲服務。
平臺聲明:文章內容(如有圖片或視頻亦包括在內)由作者上傳并發布,文章內容僅代表作者本人觀點,簡書系信息發布平臺,僅提供信息存儲服務。
- 文/潘曉璐 我一進店門,熙熙樓的掌柜王于貴愁眉苦臉地迎上來,“玉大人,你說我怎么就攤上這事。” “怎么了?”我有些...
- 文/花漫 我一把揭開白布。 她就那樣靜靜地躺著,像睡著了一般。 火紅的嫁衣襯著肌膚如雪。 梳的紋絲不亂的頭發上,一...
- 文/蒼蘭香墨 我猛地睜開眼,長吁一口氣:“原來是場噩夢啊……” “哼!你這毒婦竟也來了?” 一聲冷哼從身側響起,我...
推薦閱讀更多精彩內容
- 批量梯度下降和隨機梯度下降是機器學習中很常用的學習方法,批量梯度下降更為準確,但是每一輪訓練都要遍歷全部的樣本而隨...
- 相同點 在GD和SGD中,都會在每次迭代中更新模型的參數,使得代價函數變小。 不同點 GD 在GD中,每次迭代都要...
- [5]:http://latex.codecogs.com/gif.latex?\mathbf{J(w)}=\fr...