【Pytorch教程】Pytorch tutorials 03-Neural networks 中文翻譯

Neural networks

本篇文章是本人對Pytorch官方教程的原創(chuàng)翻譯(原文鏈接)僅供學(xué)習(xí)交流使用,轉(zhuǎn)載請注明出處!

torch.nn包提供了各種神經(jīng)網(wǎng)絡(luò)的搭建方法。

nn依賴于autograd來對模型進(jìn)行定義、求導(dǎo)。

nn.Module是所有模型的基類,它包含一個.forward(input)方法來產(chǎn)生output。

一個基本的卷積神經(jīng)網(wǎng)絡(luò)如上圖所示,它用于對圖像進(jìn)行分類。

這是一個典型的前饋神經(jīng)網(wǎng)絡(luò),它接受輸入,并且將輸入的數(shù)據(jù)一層接一層地傳播給后面的神經(jīng)網(wǎng)絡(luò),最后產(chǎn)生輸出。

訓(xùn)練神經(jīng)網(wǎng)絡(luò)主要有一下幾個基本步驟:

  • 定義神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)和參數(shù)
  • 將數(shù)據(jù)集迭代輸入神經(jīng)網(wǎng)絡(luò)
  • 處理輸入的數(shù)據(jù)
  • 計算損失(損失表示了輸出值與正確值的差異)
  • 反向傳播(將損失傳播給各個參數(shù))
  • 更新權(quán)重(常用算法weight= weight - learning_rate * gradient

Define the network

接下來我們用pytorch仿照上圖定義一個神經(jīng)網(wǎng)絡(luò)

import torch
import torch.nn as nn
import torch.nn.functional as F  # nn.functional提供了各種激勵函數(shù)

class Net(nn.Module):
    
    def __init__(self):
        super(Net, self).__init__()
        # 第一個卷積層輸入1張圖片,輸出6張圖片,卷積核大小為5
        self.conv1 = nn.Conv2d(1, 6, 5)
        # 第二個卷積層輸入6張圖片,輸出16張圖片,卷積核大小為5
        self.conv2 = nn.Conv2d(6, 16, 5)
        
        self.fc1 = nn.Linear(16 * 5 * 5, 120)
        self.fc2 = nn.Linear(120, 84)
        self.fc3 = nn.Linear(84, 10)
    
    def forward(self, x):
        # 最大池化, 使用2x2的窗口,也就是在2x2的區(qū)域內(nèi)選擇1個最大特征
        x = F.max_pool2d(F.relu(self.conv1(x)), (2, 2))
        # 如果窗口是正方形,也可以只指定一個參數(shù)
        x = F.max_pool2d(F.relu(self.conv2(x)), 2)
        
        #將圖片展開,變成一維數(shù)據(jù),以便輸入全連接層
        x = x.view(-1, self.num_flat_features(x))
        x = F.relu(self.fc1(x))
        x = F.relu(self.fc2(x))
        x = self.fc3(x)
        
        return x
    
    # 計算圖片展開后的長度
    def num_flat_features(self, x):
        size = x.size()[1:]
        num_features = 1
        for s in size:
            num_features *= s
        
        return num_features

net = Net()
print(net) 
Net(
  (conv1): Conv2d(1, 6, kernel_size=(5, 5), stride=(1, 1))
  (conv2): Conv2d(6, 16, kernel_size=(5, 5), stride=(1, 1))
  (fc1): Linear(in_features=400, out_features=120, bias=True)
  (fc2): Linear(in_features=120, out_features=84, bias=True)
  (fc3): Linear(in_features=84, out_features=10, bias=True)
)

可以注意到,torch.nn包含的這些常用的網(wǎng)絡(luò)層對象都能直接調(diào)用,這是因為nn.Module實現(xiàn)了.__call__()方法,這使得對對象的調(diào)用將視為對.__call__()方法的調(diào)用。例如我們有一個可調(diào)用對象x,那么x()就等價于x.__call__()。對于nn.Module類, 它的.__call__()方法將會自動調(diào)用.forward()方法,例如self.conv1(x)等價于self.conv1.forward(x)

當(dāng)我們實現(xiàn)了.forward()方法時,.backward()方法也就自動定義了,這得益于autograd機制。

.parameters()方法可以列出網(wǎng)絡(luò)的參數(shù)。

params = list(net.parameters())
print(len(params))
print(params[0].size())  # conv1的參數(shù)
10
torch.Size([6, 1, 5, 5])

我們用一個隨機的32x32數(shù)據(jù)來測試網(wǎng)絡(luò)是否能運行:

input = torch.randn(1, 1, 32, 32)
out = net(input)
print(out)
tensor([[ 0.0014,  0.0215, -0.0656, -0.1787,  0.0457,  0.0719,  0.0304,  0.0375,
         -0.0414, -0.0557]], grad_fn=<AddmmBackward>)
net.zero_grad()
out.backward(torch.randn(1, 10))

torch.nn僅支持mini-batch的樣本,不能只輸入單個樣本。
例如nn.Conv2d必須接受一個4維的Tensor,[樣本數(shù), 通道數(shù), 長, 寬]
所以當(dāng)我們只有單個樣本時也要使用.unsqueeze(0)來增加樣本維度

小結(jié):

  • nn.Module神經(jīng)網(wǎng)絡(luò)模塊,搭建模型、封裝參數(shù)都十分方便,同時也支持將參數(shù)遷移至GPU,導(dǎo)入導(dǎo)出等等。
  • nn.Parameter一種特殊的Tensor,nn.Module會自動將傳入的參數(shù)記為parameter。
  • autograd.Function 為自動求導(dǎo)機制實現(xiàn)了前饋和反饋的定義,每個Tensor操作都至少包含一個Function,pytorch將這些function視為相互連接的結(jié)點,它們展示了新的tensor是如何產(chǎn)生的。

到這里,我們已經(jīng)解決了以下步驟:

  • 定義神經(jīng)網(wǎng)絡(luò)
  • 輸入數(shù)據(jù)
  • 處理數(shù)據(jù)

為了訓(xùn)練神經(jīng)網(wǎng)絡(luò),還需要解決:

  • 誤差計算
  • 權(quán)重更新

Loss Function

損失函數(shù)負(fù)責(zé)計算預(yù)測值和真實值之間的差異,預(yù)測值即是神經(jīng)網(wǎng)絡(luò)的輸出,真實值一般由數(shù)據(jù)集給定,也稱為標(biāo)簽。

nn提供了很多常用的損失函數(shù),最簡單的是nn.MSELoss,即均方誤差。

output = net(input)
target = torch.randn(10)  # 構(gòu)造一組虛擬的標(biāo)簽
target = target.view(1, -1)  # 標(biāo)簽的尺寸必須和輸出一致
criterion = nn.MSELoss()

loss = criterion(output, target)
print(loss)
tensor(0.9284, grad_fn=<MseLossBackward>)

如果我們追蹤loss產(chǎn)生的過程,調(diào)用它的.grad_fn屬性,我們會看到這樣一條路徑:

input -> conv2d -> relu -> maxpool2d -> conv2d -> relu -> maxpool2d
-> view -> linear -> relu -> linear -> relu -> linear
-> MSELoss
-> loss

print(loss.grad_fn)  # MSELoss
print(loss.grad_fn.next_functions[0][0])  # Linear
print(loss.grad_fn.next_functions[0][0].next_functions[0][0])  # ReLU
<MseLossBackward object at 0x000001A0F053E5C8>
<AddmmBackward object at 0x000001A0F053E688>
<AccumulateGrad object at 0x000001A0F053E5C8>

Backprop

計算好誤差之后,我們應(yīng)該調(diào)用loss.backward(),將誤差反向傳播給網(wǎng)絡(luò),此時所有與loss相關(guān)的Tensor都會計算梯度并且更新他們的.grad屬性。

但在反向傳播之前,我們必須清空網(wǎng)絡(luò)的梯度,否則梯度會累加計算。

net.zero_grad()  #將所有的參數(shù)梯度清零

print('conv1.bias.grad before backward')
print(net.conv1.bias.grad)

loss.backward()

print('conv1.bias.grad after backward')
print(net.conv1.bias.grad)
conv1.bias.grad before backward
tensor([0., 0., 0., 0., 0., 0.])
conv1.bias.grad after backward
tensor([ 0.0016,  0.0073, -0.0150, -0.0061, -0.0189, -0.0052])

Update the weights

目前實際應(yīng)用中最簡單的權(quán)重更新方法叫做隨機梯度下降法(Stochastic Gradient Descent, SGD):weight = weight - learning_rate * gradient

我們可以用Python簡單實現(xiàn)一個SGD算法:

learning_rate = 0.01
for f in net.parameters():
    f.data.sub_(f.grad.data * learning_rate)

然而在訓(xùn)練神經(jīng)網(wǎng)絡(luò)的時候,常常用到不同的權(quán)重更新方法,為此pytorch提供了一個optim模塊:

import torch.optim as optim

# 創(chuàng)建優(yōu)化器
optimizer = optim.SGD(net.parameters(), lr=0.01)

# 將此段代碼放入每次迭代訓(xùn)練中
optimizer.zero_grad()  # 清空梯度緩存
output = net(input)
loss = criterion(output, target)
loss.backward()
optimizer.step()  # 更新一次
最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
  • 序言:七十年代末,一起剝皮案震驚了整個濱河市,隨后出現(xiàn)的幾起案子,更是在濱河造成了極大的恐慌,老刑警劉巖,帶你破解...
    沈念sama閱讀 227,250評論 6 530
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件,死亡現(xiàn)場離奇詭異,居然都是意外死亡,警方通過查閱死者的電腦和手機,發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 97,923評論 3 413
  • 文/潘曉璐 我一進(jìn)店門,熙熙樓的掌柜王于貴愁眉苦臉地迎上來,“玉大人,你說我怎么就攤上這事。” “怎么了?”我有些...
    開封第一講書人閱讀 175,041評論 0 373
  • 文/不壞的土叔 我叫張陵,是天一觀的道長。 經(jīng)常有香客問我,道長,這世上最難降的妖魔是什么? 我笑而不...
    開封第一講書人閱讀 62,475評論 1 308
  • 正文 為了忘掉前任,我火速辦了婚禮,結(jié)果婚禮上,老公的妹妹穿的比我還像新娘。我一直安慰自己,他們只是感情好,可當(dāng)我...
    茶點故事閱讀 71,253評論 6 405
  • 文/花漫 我一把揭開白布。 她就那樣靜靜地躺著,像睡著了一般。 火紅的嫁衣襯著肌膚如雪。 梳的紋絲不亂的頭發(fā)上,一...
    開封第一講書人閱讀 54,801評論 1 321
  • 那天,我揣著相機與錄音,去河邊找鬼。 笑死,一個胖子當(dāng)著我的面吹牛,可吹牛的內(nèi)容都是我干的。 我是一名探鬼主播,決...
    沈念sama閱讀 42,882評論 3 440
  • 文/蒼蘭香墨 我猛地睜開眼,長吁一口氣:“原來是場噩夢啊……” “哼!你這毒婦竟也來了?” 一聲冷哼從身側(cè)響起,我...
    開封第一講書人閱讀 42,023評論 0 285
  • 序言:老撾萬榮一對情侶失蹤,失蹤者是張志新(化名)和其女友劉穎,沒想到半個月后,有當(dāng)?shù)厝嗽跇淞掷锇l(fā)現(xiàn)了一具尸體,經(jīng)...
    沈念sama閱讀 48,530評論 1 331
  • 正文 獨居荒郊野嶺守林人離奇死亡,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點故事閱讀 40,494評論 3 354
  • 正文 我和宋清朗相戀三年,在試婚紗的時候發(fā)現(xiàn)自己被綠了。 大學(xué)時的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片。...
    茶點故事閱讀 42,639評論 1 366
  • 序言:一個原本活蹦亂跳的男人離奇死亡,死狀恐怖,靈堂內(nèi)的尸體忽然破棺而出,到底是詐尸還是另有隱情,我是刑警寧澤,帶...
    沈念sama閱讀 38,177評論 5 355
  • 正文 年R本政府宣布,位于F島的核電站,受9級特大地震影響,放射性物質(zhì)發(fā)生泄漏。R本人自食惡果不足惜,卻給世界環(huán)境...
    茶點故事閱讀 43,890評論 3 345
  • 文/蒙蒙 一、第九天 我趴在偏房一處隱蔽的房頂上張望。 院中可真熱鬧,春花似錦、人聲如沸。這莊子的主人今日做“春日...
    開封第一講書人閱讀 34,289評論 0 25
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽。三九已至,卻和暖如春,著一層夾襖步出監(jiān)牢的瞬間,已是汗流浹背。 一陣腳步聲響...
    開封第一講書人閱讀 35,552評論 1 281
  • 我被黑心中介騙來泰國打工, 沒想到剛下飛機就差點兒被人妖公主榨干…… 1. 我叫王不留,地道東北人。 一個月前我還...
    沈念sama閱讀 51,242評論 3 389
  • 正文 我出身青樓,卻偏偏與公主長得像,于是被迫代替她去往敵國和親。 傳聞我的和親對象是個殘疾皇子,可洞房花燭夜當(dāng)晚...
    茶點故事閱讀 47,626評論 2 370

推薦閱讀更多精彩內(nèi)容