Tensorflow - Variable

文章均遷移到我的主頁 http://zhenlianghe.com

my github: https://github.com/LynnHo

tf.Variable

  1. 變量域?
    • tf.name_scope和tf.variable_scope都會對tf.Variable生成的變量域造成影響,tf.variable_scope中的reuse參數對tf.Variable沒有影響(本質上是因為tf.Variable受到了tf.variable_scope中同時創建的tf.name_scope的影響)
  2. 重名?
    • 當變量名相同的時候,tf會自動打上序號
      with tf.name_scope('s'):    # or tf.variable_scope('s')
          a = tf.Variable(initial_value=10, name='a')
          b = tf.Variable(initial_value=10, name='a')
          print(a.name)
          print(b.name)
      
      [out]
      s/a:0
      s/a_1:0
      
  3. 初始化?
    • tf.Variable是用一個tensor來初始化的,
      a = tf.Variable(initial_value=[1, 2])
      b = tf.Variable(initial_value=tf.constant([1, 2]))
      c = tf.Variable(initial_value=tf.random_uniform(shape=(1, 2)))
      d = tf.Variable(initial_value=tf.zeros_initializer()(shape=(1, 2), dtype=tf.int64))
      e = tf.Variable(initial_value=slim.xavier_initializer()(shape=(1, 2)))
      
    • tf.zeros_initializer()返回的是一個對象,對象對應的類有相應的call函數,這個call函數負責產生一個相應類型的tensor
    • slim.xavier_initializer()則返回的是一個函數,調用這個函數能夠產生一個相應類型的tensor
  4. 變量共享?
    • 用生成的變量去干不同的事情不就共享了嘛
    • tf.Variable產生的變量不能用tf.variable_scope的reuse設置共享,否則會報錯

tf.get_variable

  1. 變量域?
    • tf.get_variable產生的變量只會受到tf.variable_scope的影響,不受tf.name_scope的影響
      with tf.name_scope('s'):
          a = tf.get_variable(name='a', shape=(10, 10))
      with tf.variable_scope('s'):
          b = tf.get_variable(name='a', shape=(10, 10))
      print(a.name)
      print(b.name)
      
      [out]
      a:0
      s/a:0
      
  2. 重名?變量共享?
    • 在同一個域下,重名是會報錯的。
      with tf.variable_scope('s'):
          a = tf.get_variable(name='a', shape=(10, 10))
          b = tf.get_variable(name='a')
      
      [out]
      ValueError: Variable s/a already exists, disallowed. Did you mean to set reuse=True in VarScope?
      
      • 可以在需要復用變量之前改變scope的reuse狀態
        with tf.variable_scope('s') as s:
            a = tf.get_variable(name='a', shape=(10, 10))
            s.reuse_variables()
            b = tf.get_variable(name='a')
        print(a == b)
        
        [out]
        True
        
      • 也可以設置tf.variable_scope的reuse參數為True來復用已經定義過的同名變量,但如果沒定義過而設置reuse=True也是會報錯的
        with tf.variable_scope('s', reuse=True):
            a = tf.get_variable(name='a')
        
        [out]
        ValueError: Variable s/a does not exist, or was not created with tf.get_variable(). Did you mean to set reuse=None in VarScope?
        
        with tf.variable_scope('s'):
            a = tf.get_variable(name='a', shape=(10, 10))
        with tf.variable_scope('s', reuse=True):
            b = tf.get_variable(name='a')
        print(a == b)
        
        [out]
        True
        
  3. 初始化?
    a = tf.get_variable(name='a', shape=(1, 2), initializer=tf.constant_initializer([1, 2]), dtype=tf.int64)
    b = tf.get_variable(name='b', shape=(1, 2), initializer=tf.random_uniform_initializer())
    c = tf.get_variable(name='c', shape=(1, 2), initializer=tf.zeros_initializer(), dtype=tf.int64)
    d = tf.get_variable(name='d', shape=(1, 2), initializer=slim.xavier_initializer())
    
    可見,只要給定相應的initializer就可以了,但是要注意dtype的設置,只有設置tf.get_variable的dtype參數才能正確生效,設置initializer的dtype參數是無效的

slim層里面的variable

  1. 注意,slim里面的variable生成機制實際上是和tf.get_variable是一樣的,所以特性也是一樣的,比如說變量域只受tf.variable_scope影響而不受tf.name_scope影響
  2. 層的命名
    1. 自動命名變量域,每一個slim層都有一個scope參數,如果不設置這個參數(默認為None),會有以下兩種情況
      • 在同一個上下問管理器中(with tf.variable_scope('s'):)定義層,slim會按生成順序自動命名變量域(本質上就是因為slim層里面利用了with tf.variable_scope(None, default_name, ...)的機制)
        x = tf.placeholder(tf.float32, shape=[None, 10])
        with tf.variable_scope('s'):
            a = slim.fully_connected(x, 10)
            b = slim.fully_connected(a, 10)
        for var in tf.trainable_variables():
            print(var.name)
        
        [out]  
        s/fully_connected/weights:0
        s/fully_connected/biases:0
        s/fully_connected_1/weights:0
        s/fully_connected_1/biases:0
        
      • 在不同的上下問管理器中定義層,但域名是一樣的,slim將報錯
        • 報錯的例子
          x = tf.placeholder(tf.float32, shape=[None, 10])
          with tf.variable_scope('s'):
              a = slim.fully_connected(x, 10)
          with tf.variable_scope('s'):
              b = slim.fully_connected(x, 10)
          for var in tf.trainable_variables():
              print(var.name)
          
          [out]                
          Variable s/fully_connected/weights already exists, disallowed. Did you mean to set reuse=True in VarScope?
          
        • 報錯的例子
          x = tf.placeholder(tf.float32, shape=[None, 10])
          with tf.variable_scope('s'):
              a = slim.layer_norm(x)
          with tf.variable_scope('s'):
              b = slim.layer_norm(x)
          for var in tf.trainable_variables():
              print(var.name)
          
          [out]
          ValueError: Variable s/LayerNorm/beta already exists, disallowed. Did you mean to set reuse=True in VarScope?
          
    2. 手動命名變量域,顧名思義。需要注意以下情況
      • 在同一個域中,如果兩個層設置的scope參數是同一個名字,那么slim將報錯
        • 報錯的例子

          x = tf.placeholder(tf.float32, shape=[None, 2])
          with tf.variable_scope('s'):
              a = slim.fully_connected(x, 2, scope='a')
          with tf.variable_scope('s'): # 在這個例子中,這一行可有可無,效果相同
              b = slim.fully_connected(x, 2, scope='a')
          for var in tf.trainable_variables():
              print(var.name)
          
          [out]
          Variable s/a/weights already exists, disallowed. Did you mean to set reuse=True in VarScope?
          
        • 報錯的例子

          x = tf.placeholder(tf.float32, shape=[None, 10])
          with tf.variable_scope('s'):
              a = slim.layer_norm(x, scope='a')
          with tf.variable_scope('s'): # 在這個例子中,這一行可有可無,效果相同
              b = slim.layer_norm(x, scope='a')
          
          [out]
          ValueError: Variable s/a/beta already exists, disallowed. Did you mean to set reuse=True in VarScope?
          
  3. 那么最合理的變量共享方式???實際上是和tf.get_variable定義的變量的共享機制是一樣的,用reuse參數
    x = tf.placeholder(tf.float32, shape=[None, 2])
    with tf.variable_scope('s'):
        y = slim.fully_connected(x, 2, weights_initializer=tf.random_normal_initializer())
        a = slim.layer_norm(y)
    with tf.variable_scope('s', reuse=True):
        y = slim.fully_connected(x, 2)
        b = slim.layer_norm(y)
    for var in tf.trainable_variables():
        print(var.name)
    
    sess = tf.Session()
    sess.run(tf.global_variables_initializer())
    print(sess.run(a, feed_dict={x: [[1, 7]]}))
    print(sess.run(b, feed_dict={x: [[1, 7]]}))
    
    [out] 
    s/fully_connected/weights:0
    s/fully_connected/biases:0
    s/LayerNorm/beta:0
    s/LayerNorm/gamma:0
    [[-1.          1.00000012]]
    [[-1.          1.00000012]]
    
最后編輯于
?著作權歸作者所有,轉載或內容合作請聯系作者
平臺聲明:文章內容(如有圖片或視頻亦包括在內)由作者上傳并發布,文章內容僅代表作者本人觀點,簡書系信息發布平臺,僅提供信息存儲服務。
  • 序言:七十年代末,一起剝皮案震驚了整個濱河市,隨后出現的幾起案子,更是在濱河造成了極大的恐慌,老刑警劉巖,帶你破解...
    沈念sama閱讀 227,837評論 6 531
  • 序言:濱河連續發生了三起死亡事件,死亡現場離奇詭異,居然都是意外死亡,警方通過查閱死者的電腦和手機,發現死者居然都...
    沈念sama閱讀 98,196評論 3 414
  • 文/潘曉璐 我一進店門,熙熙樓的掌柜王于貴愁眉苦臉地迎上來,“玉大人,你說我怎么就攤上這事。” “怎么了?”我有些...
    開封第一講書人閱讀 175,688評論 0 373
  • 文/不壞的土叔 我叫張陵,是天一觀的道長。 經常有香客問我,道長,這世上最難降的妖魔是什么? 我笑而不...
    開封第一講書人閱讀 62,654評論 1 309
  • 正文 為了忘掉前任,我火速辦了婚禮,結果婚禮上,老公的妹妹穿的比我還像新娘。我一直安慰自己,他們只是感情好,可當我...
    茶點故事閱讀 71,456評論 6 406
  • 文/花漫 我一把揭開白布。 她就那樣靜靜地躺著,像睡著了一般。 火紅的嫁衣襯著肌膚如雪。 梳的紋絲不亂的頭發上,一...
    開封第一講書人閱讀 54,955評論 1 321
  • 那天,我揣著相機與錄音,去河邊找鬼。 笑死,一個胖子當著我的面吹牛,可吹牛的內容都是我干的。 我是一名探鬼主播,決...
    沈念sama閱讀 43,044評論 3 440
  • 文/蒼蘭香墨 我猛地睜開眼,長吁一口氣:“原來是場噩夢啊……” “哼!你這毒婦竟也來了?” 一聲冷哼從身側響起,我...
    開封第一講書人閱讀 42,195評論 0 287
  • 序言:老撾萬榮一對情侶失蹤,失蹤者是張志新(化名)和其女友劉穎,沒想到半個月后,有當地人在樹林里發現了一具尸體,經...
    沈念sama閱讀 48,725評論 1 333
  • 正文 獨居荒郊野嶺守林人離奇死亡,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內容為張勛視角 年9月15日...
    茶點故事閱讀 40,608評論 3 354
  • 正文 我和宋清朗相戀三年,在試婚紗的時候發現自己被綠了。 大學時的朋友給我發了我未婚夫和他白月光在一起吃飯的照片。...
    茶點故事閱讀 42,802評論 1 369
  • 序言:一個原本活蹦亂跳的男人離奇死亡,死狀恐怖,靈堂內的尸體忽然破棺而出,到底是詐尸還是另有隱情,我是刑警寧澤,帶...
    沈念sama閱讀 38,318評論 5 358
  • 正文 年R本政府宣布,位于F島的核電站,受9級特大地震影響,放射性物質發生泄漏。R本人自食惡果不足惜,卻給世界環境...
    茶點故事閱讀 44,048評論 3 347
  • 文/蒙蒙 一、第九天 我趴在偏房一處隱蔽的房頂上張望。 院中可真熱鬧,春花似錦、人聲如沸。這莊子的主人今日做“春日...
    開封第一講書人閱讀 34,422評論 0 26
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽。三九已至,卻和暖如春,著一層夾襖步出監牢的瞬間,已是汗流浹背。 一陣腳步聲響...
    開封第一講書人閱讀 35,673評論 1 281
  • 我被黑心中介騙來泰國打工, 沒想到剛下飛機就差點兒被人妖公主榨干…… 1. 我叫王不留,地道東北人。 一個月前我還...
    沈念sama閱讀 51,424評論 3 390
  • 正文 我出身青樓,卻偏偏與公主長得像,于是被迫代替她去往敵國和親。 傳聞我的和親對象是個殘疾皇子,可洞房花燭夜當晚...
    茶點故事閱讀 47,762評論 2 372

推薦閱讀更多精彩內容