Tensorflow版本yolo v3源碼閱讀筆記(1)

這段時(shí)間學(xué)習(xí)了yolo v3的源代碼,作一下筆記。這個(gè)tensorflow版本的yolo v3源碼出自這里malin9402

yolo v3中首先使用的是一個(gè)darknet53的模塊來提取輸入圖片的特征,這個(gè)darknet53的模塊比較特別,全部使用的是卷積神經(jīng)網(wǎng)絡(luò),沒有使用池化層,全連接層,下面來分析一下它的代碼。

1. darknet53模型

import tensorflow as tf #導(dǎo)入庫
import core.common as common #導(dǎo)入所需要的文件


def darknet53(input_data):

    #[bs,416,416,3] => [bs,416,416,32]
    input_data = common.convolutional(input_data, (3, 3,  3,  32))
    #[bs,416,416,32] => [bs,208,208,64]
    input_data = common.convolutional(input_data, (3, 3, 32,  64), downsample=True)

    for i in range(1):
        #[bs,208,208,64] => [bs,208,208,64]
        input_data = common.residual_block(input_data,  64,  32, 64)

    #[bs,208,208,64] => [bs,104,104,128]
    input_data = common.convolutional(input_data, (3, 3,  64, 128), downsample=True)

    for i in range(2):
        #[bs,104,104,128] => [bs,104,104,128]
        input_data = common.residual_block(input_data, 128,  64, 128)

    #[bs,104,104,128] => [bs,52,52,256]
    input_data = common.convolutional(input_data, (3, 3, 128, 256), downsample=True)

    for i in range(8):
        #[bs,52,52,256] => [bs,52,52,256]
        input_data = common.residual_block(input_data, 256, 128, 256)

    route_1 = input_data#[bs,52,52,256]
    #[bs,52,52,256] => [bs,26,26,512]
    input_data = common.convolutional(input_data, (3, 3, 256, 512), downsample=True)

    for i in range(8):
        #[bs,26,26,512] => [bs,26,26,512]
        input_data = common.residual_block(input_data, 512, 256, 512)

    route_2 = input_data#[bs,26,26,512]
    #[bs,26,26,512] => [bs,13,13,1024]
    input_data = common.convolutional(input_data, (3, 3, 512, 1024), downsample=True)

    for i in range(4):
        #[bs,13,13,1024] => [bs,13,13,1024]
        input_data = common.residual_block(input_data, 1024, 512, 1024)

    return route_1, route_2, input_data

最后darknet53返回三個(gè)尺度的特征,

route_1: [bs,52,52,256]
route_2: [bs,26,26,512]
input_data: [bs,13,13,1024]

另外還要說明的是,我計(jì)算了一下darknet53模型的網(wǎng)絡(luò)層,發(fā)現(xiàn)只有52層網(wǎng)絡(luò)(1+2+8+8+4)*2 = 46個(gè)卷積層
1+1+1+1+1+1 = 6個(gè)卷積層
6+46 = 52個(gè)卷積層

后來才了解到,darknet53是在ImageNet上的經(jīng)典分類模型,后來被yolo v3的作者移植到了yolo v3中,但是去掉了最后的池化層和全連接層,所以只剩52層了。

2. darknet53模型中用到的卷積層和殘差網(wǎng)絡(luò)

先看代碼,此代碼位于core/common.py文件中。
從上面darknet53的代碼中可以看到,其中用到了common.convolutional卷積層和common.residual_block殘差模塊。下面我們來分析分析。

import tensorflow as tf

#這個(gè)就是我們常說的bn層了
class BatchNormalization(tf.keras.layers.BatchNormalization):
    """
    "Frozen state" and "inference mode" are two separate concepts.
    `layer.trainable = False` is to freeze the layer, so the layer will use
    stored moving `var` and `mean` in the "inference mode", and both `gama`
    and `beta` will not be updated !
    """
    def call(self, x, training=False):
        if not training:
            training = tf.constant(False)
        training = tf.logical_and(training, self.trainable)
        return super().call(x, training)


下面來看一下卷積層的實(shí)現(xiàn)

#卷積層
def convolutional(input_layer, filters_shape, downsample=False, activate=True, bn=True):
    if downsample:
        #下采樣,主要功能是將輸入的高寬縮小2倍,比如高寬[416,416] => 高寬[208,208]
        input_layer = tf.keras.layers.ZeroPadding2D(((1, 0), (1, 0)))(input_layer)
        padding = 'valid'
        strides = 2
    else:
      #不是下采樣的話,高寬保持不變,[416,416] => [416,416]
        strides = 1
        padding = 'same'

    conv = tf.keras.layers.Conv2D(filters=filters_shape[-1], kernel_size = filters_shape[0], strides=strides, padding=padding,
                                  use_bias=not bn, kernel_regularizer=tf.keras.regularizers.l2(0.0005),
                                  kernel_initializer=tf.random_normal_initializer(stddev=0.01),
                                  bias_initializer=tf.constant_initializer(0.))(input_layer)

    if bn: conv = BatchNormalization()(conv)
    if activate == True: conv = tf.nn.leaky_relu(conv, alpha=0.1)

    return conv

說明一下,tf.keras.layers.ZeroPadding2D是給輸入的高寬上下左右填充0,padding=((top_pad, bottom_pad), (left_pad, right_pad))。

卷積層有一個(gè)特性:strides = 1并且padding = 'same'的時(shí)候,輸入的高寬和輸出的高寬相同。如果padding = 'valid'的時(shí)候,輸出的高寬 = (輸入的高寬+填充的數(shù)目-卷積核的大小)/ 卷積核的步長 + 1。

比如上面的代碼中downsample=True的時(shí)候,假設(shè)輸入的圖片為[bs,416,416,3],卷積核的數(shù)目為32,那么根據(jù)公式,輸出的圖片高寬為(416 + 1 - 3) /2 + 1 = 208,那么輸出的圖片為[bs,208,208,32]。


下面看一下殘差網(wǎng)絡(luò)的代碼,殘差網(wǎng)絡(luò)的功能主要是能夠防止梯度彌散現(xiàn)象的出現(xiàn),使用了殘差網(wǎng)絡(luò),就可以訓(xùn)練比較深的神經(jīng)網(wǎng)絡(luò)。

# 殘差網(wǎng)絡(luò)
def residual_block(input_layer, input_channel, filter_num1, filter_num2):
    short_cut = input_layer
    conv = convolutional(input_layer, filters_shape=(1, 1, input_channel, filter_num1))
    conv = convolutional(conv       , filters_shape=(3, 3, filter_num1,   filter_num2))

    residual_output = short_cut + conv
    return residual_output

通過上面的代碼可以看出,殘差網(wǎng)絡(luò)中包含了2個(gè)卷積層,并且這2個(gè)卷積層并不改變輸入圖片的大小,所以代碼中short_cut和conv的shape是一樣的,shape相同的兩個(gè)張量是可以直接相加的,于是就可以得到殘差網(wǎng)絡(luò)的輸出residual_output。



下面看一下上采樣操作,在tensorflow中,上采樣操作可以通過轉(zhuǎn)置卷積來實(shí)現(xiàn),但是那樣會引入訓(xùn)練參數(shù)。這里采用的方法比較簡單,直接使用tf.image.resize方法將輸入圖片的尺寸放大2倍。

def upsample(input_layer):
    return tf.image.resize(input_layer, (input_layer.shape[1] * 2, input_layer.shape[2] * 2), method='nearest')



darknet53和卷積網(wǎng)絡(luò)、殘差模塊的代碼解讀到這里就結(jié)束了,在下一篇中,我們接著來分析yolo v3的代碼。

最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
  • 序言:七十年代末,一起剝皮案震驚了整個(gè)濱河市,隨后出現(xiàn)的幾起案子,更是在濱河造成了極大的恐慌,老刑警劉巖,帶你破解...
    沈念sama閱讀 227,283評論 6 530
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件,死亡現(xiàn)場離奇詭異,居然都是意外死亡,警方通過查閱死者的電腦和手機(jī),發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 97,947評論 3 413
  • 文/潘曉璐 我一進(jìn)店門,熙熙樓的掌柜王于貴愁眉苦臉地迎上來,“玉大人,你說我怎么就攤上這事。” “怎么了?”我有些...
    開封第一講書人閱讀 175,094評論 0 373
  • 文/不壞的土叔 我叫張陵,是天一觀的道長。 經(jīng)常有香客問我,道長,這世上最難降的妖魔是什么? 我笑而不...
    開封第一講書人閱讀 62,485評論 1 308
  • 正文 為了忘掉前任,我火速辦了婚禮,結(jié)果婚禮上,老公的妹妹穿的比我還像新娘。我一直安慰自己,他們只是感情好,可當(dāng)我...
    茶點(diǎn)故事閱讀 71,268評論 6 405
  • 文/花漫 我一把揭開白布。 她就那樣靜靜地躺著,像睡著了一般。 火紅的嫁衣襯著肌膚如雪。 梳的紋絲不亂的頭發(fā)上,一...
    開封第一講書人閱讀 54,817評論 1 321
  • 那天,我揣著相機(jī)與錄音,去河邊找鬼。 笑死,一個(gè)胖子當(dāng)著我的面吹牛,可吹牛的內(nèi)容都是我干的。 我是一名探鬼主播,決...
    沈念sama閱讀 42,906評論 3 440
  • 文/蒼蘭香墨 我猛地睜開眼,長吁一口氣:“原來是場噩夢啊……” “哼!你這毒婦竟也來了?” 一聲冷哼從身側(cè)響起,我...
    開封第一講書人閱讀 42,039評論 0 285
  • 序言:老撾萬榮一對情侶失蹤,失蹤者是張志新(化名)和其女友劉穎,沒想到半個(gè)月后,有當(dāng)?shù)厝嗽跇淞掷锇l(fā)現(xiàn)了一具尸體,經(jīng)...
    沈念sama閱讀 48,551評論 1 331
  • 正文 獨(dú)居荒郊野嶺守林人離奇死亡,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點(diǎn)故事閱讀 40,502評論 3 354
  • 正文 我和宋清朗相戀三年,在試婚紗的時(shí)候發(fā)現(xiàn)自己被綠了。 大學(xué)時(shí)的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片。...
    茶點(diǎn)故事閱讀 42,662評論 1 366
  • 序言:一個(gè)原本活蹦亂跳的男人離奇死亡,死狀恐怖,靈堂內(nèi)的尸體忽然破棺而出,到底是詐尸還是另有隱情,我是刑警寧澤,帶...
    沈念sama閱讀 38,188評論 5 356
  • 正文 年R本政府宣布,位于F島的核電站,受9級特大地震影響,放射性物質(zhì)發(fā)生泄漏。R本人自食惡果不足惜,卻給世界環(huán)境...
    茶點(diǎn)故事閱讀 43,907評論 3 345
  • 文/蒙蒙 一、第九天 我趴在偏房一處隱蔽的房頂上張望。 院中可真熱鬧,春花似錦、人聲如沸。這莊子的主人今日做“春日...
    開封第一講書人閱讀 34,304評論 0 25
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽。三九已至,卻和暖如春,著一層夾襖步出監(jiān)牢的瞬間,已是汗流浹背。 一陣腳步聲響...
    開封第一講書人閱讀 35,563評論 1 281
  • 我被黑心中介騙來泰國打工, 沒想到剛下飛機(jī)就差點(diǎn)兒被人妖公主榨干…… 1. 我叫王不留,地道東北人。 一個(gè)月前我還...
    沈念sama閱讀 51,255評論 3 389
  • 正文 我出身青樓,卻偏偏與公主長得像,于是被迫代替她去往敵國和親。 傳聞我的和親對象是個(gè)殘疾皇子,可洞房花燭夜當(dāng)晚...
    茶點(diǎn)故事閱讀 47,637評論 2 370

推薦閱讀更多精彩內(nèi)容