Saver的用法
我們經(jīng)常在訓(xùn)練完一個(gè)模型之后希望保存訓(xùn)練的結(jié)果,這些結(jié)果指的是模型的參數(shù),以便下次迭代的訓(xùn)練或者用作測(cè)試。Tensorflow針對(duì)這一需求提供了Saver類。
Saver類提供了向checkpoints文件保存和從checkpoints文件中恢復(fù)變量的相關(guān)方法。Checkpoints文件是一個(gè)二進(jìn)制文件,它把變量名映射到對(duì)應(yīng)的tensor值 。
只要提供一個(gè)計(jì)數(shù)器,當(dāng)計(jì)數(shù)器觸發(fā)時(shí),Saver類可以自動(dòng)的生成checkpoint文件。這讓我們可以在訓(xùn)練過(guò)程中保存多個(gè)中間結(jié)果。例如,我們可以保存每一步訓(xùn)練的結(jié)果。
為了避免填滿整個(gè)磁盤(pán),Saver可以自動(dòng)的管理Checkpoints文件。例如,我們可以指定保存最近的N個(gè)Checkpoints文件。
下面以一個(gè)例子來(lái)講述如何使用Saver類
[python]view plaincopy
importtensorflow?as?tf
importnumpy?as?np
x?=?tf.placeholder(tf.float32,?shape=[None,1])
y?=4*?x?+4
w?=?tf.Variable(tf.random_normal([1],?-1,1))
b?=?tf.Variable(tf.zeros([1]))
y_predict?=?w?*?x?+?b
loss?=?tf.reduce_mean(tf.square(y?-?y_predict))
optimizer?=?tf.train.GradientDescentOptimizer(0.5)
train?=?optimizer.minimize(loss)
isTrain?=False
train_steps?=100
checkpoint_steps?=50
checkpoint_dir?=''
saver?=?tf.train.Saver()#?defaults?to?saving?all?variables?-?in?this?case?w?and?b
x_data?=?np.reshape(np.random.rand(10).astype(np.float32),?(10,1))
with?tf.Session()?as?sess:
sess.run(tf.initialize_all_variables())
ifisTrain:
foriinxrange(train_steps):
sess.run(train,?feed_dict={x:?x_data})
if(i?+1)?%?checkpoint_steps?==0:
saver.save(sess,?checkpoint_dir?+'model.ckpt',?global_step=i+1)
else:
ckpt?=?tf.train.get_checkpoint_state(checkpoint_dir)
ifckptandckpt.model_checkpoint_path:
saver.restore(sess,?ckpt.model_checkpoint_path)
else:
pass
print(sess.run(w))
print(sess.run(b))
isTrain:用來(lái)區(qū)分訓(xùn)練階段和測(cè)試階段,True表示訓(xùn)練,F(xiàn)alse表示測(cè)試
train_steps:表示訓(xùn)練的次數(shù),例子中使用100
checkpoint_steps:表示訓(xùn)練多少次保存一下checkpoints,例子中使用50
checkpoint_dir:表示checkpoints文件的保存路徑,例子中使用當(dāng)前路徑
使用Saver.save()方法保存模型:
sess:表示當(dāng)前會(huì)話,當(dāng)前會(huì)話記錄了當(dāng)前的變量值
checkpoint_dir + 'model.ckpt':表示存儲(chǔ)的文件名
global_step:表示當(dāng)前是第幾步
訓(xùn)練完成后,當(dāng)前目錄底下會(huì)多出5個(gè)文件。
打開(kāi)名為“checkpoint”的文件,可以看到保存記錄,和最新的模型存儲(chǔ)位置。
測(cè)試階段使用saver.restore()方法恢復(fù)變量:
sess:表示當(dāng)前會(huì)話,之前保存的結(jié)果將被加載入這個(gè)會(huì)話
ckpt.model_checkpoint_path:表示模型存儲(chǔ)的位置,不需要提供模型的名字,它會(huì)去查看checkpoint文件,看看最新的是誰(shuí),叫做什么。
運(yùn)行結(jié)果如下圖所示,加載了之前訓(xùn)練的參數(shù)w和b的結(jié)果