0、前言
- 在學習圖像處理與機器學習的過程中發(fā)現(xiàn),許多文章對于卷積神經(jīng)網(wǎng)絡中的卷積為何能夠提取圖像的特征的概念介紹總是比較模糊,本文談一下我在學習過程中從系統(tǒng)的角度對卷積在圖像上的應用的理解。
1、全連接神經(jīng)網(wǎng)絡到卷積神經(jīng)網(wǎng)絡(CNN)
-
對于全連接神經(jīng)網(wǎng)絡而言,分析數(shù)字圖像一來參數(shù)較多,二來沒有很好地考慮到像素與像素之間的位置關系,并且由于梯度傳遞的限制導致網(wǎng)絡的層數(shù)難以增加。因而人們更多的是采用卷積神經(jīng)網(wǎng)絡(CNN)來對圖像進行分析與處理。
全連接 -
CNN采用不斷卷積池化的結構來搭建網(wǎng)絡,其中卷積代替了全連接層的特征提取的作用,利用卷積能夠利用局部信息的特性來提高在圖像上的處理性能 ,將全連接網(wǎng)絡中成千上萬個權重參數(shù)減少為多個卷積層中卷積核里的參數(shù),為了更多地減少參數(shù)個數(shù),卷積核很多情況下會選擇 size(3,3)的大小,但 size(3,3)的卷積核比更大的卷積核而言更多地缺少對局部信息的采集與利用,利用池化來將降低分辨率,同時能讓卷積核能夠在保持較小的情況下提取到更多的局部信息,這是CNN的網(wǎng)絡結構。
卷積
2.但是為什么卷積就能夠提取圖像上的特征
-
從信號與系統(tǒng)的角度看,卷積很多時候出現(xiàn)在一個系統(tǒng)的單位脈沖響應與輸入信號上,用于求出系統(tǒng)在一定輸入下所對應的輸出。
卷積 -
神經(jīng)網(wǎng)絡的多層結構從一開始的設想是模仿生物的神經(jīng)元的一層一層傳遞的結構,從一開始的神經(jīng)元判斷角和邊等等到大的局部特征最終得到所看到的目標是否是與神經(jīng)元中記憶的某一個模式所匹配來進行目標的判斷,這一點從反卷積出的圖像可以看出。
反卷積 在卷積神經(jīng)網(wǎng)絡中,每一個卷積核所對應的卷積層實際上就是一個系統(tǒng),一個用于判斷圖像中某一個特征的系統(tǒng),但是我們需要的對于判斷的某一個特征的系統(tǒng)的具體運算法則并不清楚,所以我們需要通過誤差反向傳播的方式不斷地調整卷積核中的參數(shù)使得在訓練后調整參數(shù)的卷積核能夠能夠完成當前卷積層(即當前系統(tǒng))能夠判斷某一個圖像特征的工作。當所有的單個卷積層(單個特征判斷系統(tǒng))都能有效地完成特征判斷的任務時,由這些數(shù)量眾多卷積層所組成的復雜系統(tǒng)CNN就能夠完成人類所需要的給予卷積神經(jīng)網(wǎng)絡的復雜任務。
3、結論
- 卷積神經(jīng)網(wǎng)絡CNN實際上是通過帶有l(wèi)abel的訓練數(shù)據(jù)來train由一個個特征判斷系統(tǒng)中的運算法則,對于圖像特征提取而言,系統(tǒng)的運算法則可能比較復雜,通過卷積的方式將復雜判斷系統(tǒng)的運算法則變?yōu)橐粋€個易于計算的卷積核,從而更方便地提取圖像特征,完成對圖像的分析與處理。
- 既然談到卷積,很自然地應該會運用到FFT之類的加速技巧,但是簡單查一下好像并沒有博客專門提到這一點,可能是沒有查找的方式不對,一個小疑問。
- 但從附近學習神經(jīng)網(wǎng)絡的看來其實就算只知道卷積能夠提取特征這一點就對應用cnn沒什么太大的障礙了。
參考文獻:
[1]https://blog.csdn.net/bitcarmanlee/article/details/54729807
[2]https://blog.csdn.net/panglinzhuo/article/details/75207855
[3]https://blog.csdn.net/kekong0713/article/details/68941498
[4]https://www.zhihu.com/question/22298352/answer/228543288
[5]https://blog.csdn.net/lemianli/article/details/53171951
(侵權刪)