學習log4|神經(jīng)網(wǎng)絡預測的基本流程--附pytorch代碼和基礎(chǔ)概念大白話解釋

此前在疫情期間學習了AI的經(jīng)典算法理論,但一直沒有機會實戰(zhàn)敲敲代碼,總感覺有遺憾,現(xiàn)在抓緊時間實戰(zhàn)一下!下面的筆記其實就是的pytorch官方學習代碼加上個人的理解,代碼已經(jīng)試運行過了,邊做邊學吧。

1、模型是如何學習的

  • 模型學習的兩種方式:正反饋和負反饋機制

  • forwardpropagation:告訴模型什么知識,它就輸出什么,類似模仿,中間包括提取特征(抓取精華,抽選。
    ??下面是定義了神經(jīng)網(wǎng)絡和前向傳播的pytorch代碼

import torch.nn as nn
import torch.nn.functional as F
class Net(nn.Module):
    def __init__(self):
        super().__init__()
        self.conv1 = nn.Conv2d(3, 6, 5)
        self.pool = nn.MaxPool2d(2, 2)
        self.conv2 = nn.Conv2d(6, 16, 5)
        self.fc1 = nn.Linear(16 * 5 * 5, 120)
        self.fc2 = nn.Linear(120, 84)
        self.fc3 = nn.Linear(84, 10)

    def forward(self, x):
        x = self.pool(F.relu(self.conv1(x)))
        x = self.pool(F.relu(self.conv2(x)))
        x = torch.flatten(x, 1) # flatten all dimensions except batch
        x = F.relu(self.fc1(x))
        x = F.relu(self.fc2(x))
        x = self.fc3(x)
        return x


net = Net()
  • backpropagation: 負反饋學習機制,從錯誤中吸收經(jīng)驗,失敗乃成功之母!(本質(zhì)是通過損失函數(shù)調(diào)整模型的參數(shù))

  • 如何判斷模型真正學到了知識

    • loss function: 交叉熵損失(Cross-Entropy loss)是一種常用的損失函數(shù),特別適用于分類問題。它用于衡量模型的預測結(jié)果與真實標簽之間的差異,跟人類的考試差不多,用于查看模型的學習程度。當然了損失函數(shù)也只有Cross-Entropy loss這一種

??: pytorch實現(xiàn)模型訓練的代碼,注意的點:每一次反向?qū)W習的計算前都需要對梯度進行清零,否則會引起梯度爆炸和梯度消失的問題,也即每次學習到更新了的狀態(tài)會被推翻,模型狀態(tài)變得跟薛定諤的貓一樣飄忽不定,也即訓練會沒有效果。

for epoch in range(2):  # loop over the dataset multiple times

    running_loss = 0.0
    for i, data in enumerate(trainloader, 0):
        # get the inputs; data is a list of [inputs, labels]
        inputs, labels = data

        # zero the parameter gradients
        optimizer.zero_grad()    #清除前一次訓練的梯度

        # forward + backward + optimize
        outputs = net(inputs) #這里就是正反饋學習
        loss = criterion(outputs, labels)
        loss.backward()   #負反饋
        optimizer.step()

        # print statistics
        running_loss += loss.item()
        if i % 2000 == 1999:    # print every 2000 mini-batches
            print(f'[{epoch + 1}, {i + 1:5d}] loss: {running_loss / 2000:.3f}')
            running_loss = 0.0

print('Finished Training')

2、模型的訓練過程(此處包含我個人不成熟的案例解說)

模型訓練步驟通常包含下面的模塊

    1. 讀取數(shù)據(jù)集(分批讀): 此處引入batch和epoch的概念,相當于一本書一共200頁-->總數(shù)據(jù)集,每天只能讀10頁-->batch_size,分20天-->迭代iterations讀完,讀完一次全書-->1次epoch。溫故而知新,一本書可以讀多次,就有多輪的epoch了
    1. 模型預測(正反饋):看小說的開頭,已經(jīng)可以根據(jù)有限的信息推測后續(xù)的發(fā)展了,這里可以推斷出有n種結(jié)局??
    1. 計算損失:??哪一種結(jié)局比較接近真實結(jié)局呢?,這時候就是要跟真的結(jié)局相比較了。假設(shè)真正的結(jié)局是喜劇,那么猜到了是悲劇就扣50分??,如果結(jié)局是be種帶點he比較接近真實的結(jié)局,就扣20分?。
  • 4、根據(jù)損失值進行負反饋學習調(diào)整模型的權(quán)重:對于模型而言,結(jié)局依然是未知的,隨著線索的獲取,就可以更新自己的預測并根據(jù)扣分的多少去衡量怎樣的結(jié)局是真實結(jié)局??,這就是反饋的過程。
    上述的解說也不一定對啦,也可以參考猜數(shù)字游戲。

總結(jié)

本篇筆記記錄一個神經(jīng)網(wǎng)絡的基本訓練路線,代碼中包含了網(wǎng)絡的構(gòu)建,學習(訓練)的過程。

ps: 上述的個人理解不一定正確,有誤請在評論區(qū)指出/(ㄒoㄒ)/~~


參考
淺顯易懂的池化層解釋

最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
平臺聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點,簡書系信息發(fā)布平臺,僅提供信息存儲服務。
  • 序言:七十年代末,一起剝皮案震驚了整個濱河市,隨后出現(xiàn)的幾起案子,更是在濱河造成了極大的恐慌,老刑警劉巖,帶你破解...
    沈念sama閱讀 228,119評論 6 531
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件,死亡現(xiàn)場離奇詭異,居然都是意外死亡,警方通過查閱死者的電腦和手機,發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 98,382評論 3 415
  • 文/潘曉璐 我一進店門,熙熙樓的掌柜王于貴愁眉苦臉地迎上來,“玉大人,你說我怎么就攤上這事。” “怎么了?”我有些...
    開封第一講書人閱讀 176,038評論 0 373
  • 文/不壞的土叔 我叫張陵,是天一觀的道長。 經(jīng)常有香客問我,道長,這世上最難降的妖魔是什么? 我笑而不...
    開封第一講書人閱讀 62,853評論 1 309
  • 正文 為了忘掉前任,我火速辦了婚禮,結(jié)果婚禮上,老公的妹妹穿的比我還像新娘。我一直安慰自己,他們只是感情好,可當我...
    茶點故事閱讀 71,616評論 6 408
  • 文/花漫 我一把揭開白布。 她就那樣靜靜地躺著,像睡著了一般。 火紅的嫁衣襯著肌膚如雪。 梳的紋絲不亂的頭發(fā)上,一...
    開封第一講書人閱讀 55,112評論 1 323
  • 那天,我揣著相機與錄音,去河邊找鬼。 笑死,一個胖子當著我的面吹牛,可吹牛的內(nèi)容都是我干的。 我是一名探鬼主播,決...
    沈念sama閱讀 43,192評論 3 441
  • 文/蒼蘭香墨 我猛地睜開眼,長吁一口氣:“原來是場噩夢啊……” “哼!你這毒婦竟也來了?” 一聲冷哼從身側(cè)響起,我...
    開封第一講書人閱讀 42,355評論 0 288
  • 序言:老撾萬榮一對情侶失蹤,失蹤者是張志新(化名)和其女友劉穎,沒想到半個月后,有當?shù)厝嗽跇淞掷锇l(fā)現(xiàn)了一具尸體,經(jīng)...
    沈念sama閱讀 48,869評論 1 334
  • 正文 獨居荒郊野嶺守林人離奇死亡,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點故事閱讀 40,727評論 3 354
  • 正文 我和宋清朗相戀三年,在試婚紗的時候發(fā)現(xiàn)自己被綠了。 大學時的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片。...
    茶點故事閱讀 42,928評論 1 369
  • 序言:一個原本活蹦亂跳的男人離奇死亡,死狀恐怖,靈堂內(nèi)的尸體忽然破棺而出,到底是詐尸還是另有隱情,我是刑警寧澤,帶...
    沈念sama閱讀 38,467評論 5 358
  • 正文 年R本政府宣布,位于F島的核電站,受9級特大地震影響,放射性物質(zhì)發(fā)生泄漏。R本人自食惡果不足惜,卻給世界環(huán)境...
    茶點故事閱讀 44,165評論 3 347
  • 文/蒙蒙 一、第九天 我趴在偏房一處隱蔽的房頂上張望。 院中可真熱鬧,春花似錦、人聲如沸。這莊子的主人今日做“春日...
    開封第一講書人閱讀 34,570評論 0 26
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽。三九已至,卻和暖如春,著一層夾襖步出監(jiān)牢的瞬間,已是汗流浹背。 一陣腳步聲響...
    開封第一講書人閱讀 35,813評論 1 282
  • 我被黑心中介騙來泰國打工, 沒想到剛下飛機就差點兒被人妖公主榨干…… 1. 我叫王不留,地道東北人。 一個月前我還...
    沈念sama閱讀 51,585評論 3 390
  • 正文 我出身青樓,卻偏偏與公主長得像,于是被迫代替她去往敵國和親。 傳聞我的和親對象是個殘疾皇子,可洞房花燭夜當晚...
    茶點故事閱讀 47,892評論 2 372

推薦閱讀更多精彩內(nèi)容