一区二区三区在线-一区二区三区亚洲视频-一区二区三区亚洲-一区二区三区午夜-一区二区三区四区在线视频-一区二区三区四区在线免费观看

腳本之家,腳本語(yǔ)言編程技術(shù)及教程分享平臺(tái)!
分類導(dǎo)航

Python|VBS|Ruby|Lua|perl|VBA|Golang|PowerShell|Erlang|autoit|Dos|bat|

服務(wù)器之家 - 腳本之家 - Python - 解決tensorflow模型參數(shù)保存和加載的問(wèn)題

解決tensorflow模型參數(shù)保存和加載的問(wèn)題

2021-03-22 00:31fresh七天 Python

今天小編就為大家分享一篇解決tensorflow模型參數(shù)保存和加載的問(wèn)題,具有很好的參考價(jià)值,希望對(duì)大家有所幫助。一起跟隨小編過(guò)來(lái)看看吧

終于找到bug原因!記一下;還是不熟悉平臺(tái)的原因造成的!

Q:為什么會(huì)出現(xiàn)兩個(gè)模型對(duì)象在同一個(gè)文件中一起運(yùn)行,當(dāng)直接讀取他們分開(kāi)運(yùn)行時(shí)訓(xùn)練出來(lái)的模型會(huì)出錯(cuò),而且總是有一個(gè)正確,一個(gè)讀取錯(cuò)誤? 而 直接在同一個(gè)文件又訓(xùn)練又重新加載模型預(yù)測(cè)不出錯(cuò),而且更詭異的是此時(shí)用分文件里的對(duì)象加載模型不會(huì)出錯(cuò)?

model.py,里面含有 ModelV 和 ModelP,另外還有 modelP.py 和 modelV.py 分別只含有 ModelP 和 ModeV 這兩個(gè)對(duì)象,先使用 modelP.py 和 modelV.py 分別訓(xùn)練好模型,然后再在 model.py 里加載進(jìn)來(lái):

?
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
# -*- coding: utf8 -*-
 
import tensorflow as tf
 
class ModelV():
 
 def __init__(self):
 
  self.v1 = tf.Variable(66, name="v1")
  self.v2 = tf.Variable(77, name="v2")
  self.save_path = "model_v/model.ckpt"
  self.init = tf.global_variables_initializer()
  self.saver = tf.train.Saver()
  self.sess = tf.Session()
 
 def train(self):
  self.sess.run(self.init)
  print 'v2', self.v2.eval(self.sess)
 
  self.saver.save(self.sess, self.save_path)
  print "ModelV saved."
 
 def predict(self):
 
  all_vars = tf.trainable_variables()
  for v in all_vars:
   print(v.name)
  self.saver.restore(self.sess, self.save_path)
  print "ModelV restored."
  print 'v2', self.v2.eval(self.sess)
  print '------------------------------------------------------------------'
 
class ModelP():
 
 def __init__(self):
 
  self.p1 = tf.Variable(88, name="p1")
  self.p2 = tf.Variable(99, name="p2")
  self.save_path = "model_p/model.ckpt"
  self.init = tf.global_variables_initializer()
  self.saver = tf.train.Saver()
  self.sess = tf.Session()
 
 def train(self):
  self.sess.run(self.init)
  print 'p2', self.p2.eval(self.sess)
 
  self.saver.save(self.sess, self.save_path)
  print "ModelP saved."
 
 def predict(self):
 
  all_vars = tf.trainable_variables()
  for v in all_vars:
   print v.name
  self.saver.restore(self.sess, self.save_path)
  print "ModelP restored."
  print 'p2', self.p2.eval(self.sess)
  print '---------------------------------------------------------------------'
 
 
if __name__ == '__main__':
 v = ModelV()
 p = ModelP()
 v.predict()
 #v.train()
 p.predict()
 #p.train()

這里 tf.global_variables_initializer() 很關(guān)鍵! 盡管你是分別在對(duì)象 ModelP 和 ModelV 內(nèi)部分配和定義的 tf.Variable(),即 v1 v2 和 p1 p2,但是 對(duì) tf 這個(gè)模塊而言, 這些都是全局變量,可以通過(guò)以下代碼查看所有的變量,你就會(huì)發(fā)現(xiàn)同一個(gè)文件中同時(shí)運(yùn)行 ModelP 和 ModelV 在初始化之后都打印出了一樣的變量,這個(gè)是問(wèn)題的關(guān)鍵所在:

?
1
2
3
all_vars = tf.trainable_variables()
for v in all_vars:
 print(v.name)

錯(cuò)誤。你可以交換 modelP 和 modelV 初始化的順序,看看錯(cuò)誤信息的變化

?
1
2
3
4
5
6
7
8
9
10
11
12
v1:0
v2:0
p1:0
p2:0
ModelV restored.
v2 77
v1:0
v2:0
p1:0
p2:0
W tensorflow/core/framework/op_kernel.cc:975] Not found: Key v2 not found in checkpoint
W tensorflow/core/framework/op_kernel.cc:975] Not found: Key v1 not found in checkpoint

實(shí)際上,分開(kāi)運(yùn)行時(shí),模型保存參數(shù)是正確的,因?yàn)樵谝粋€(gè)模型里的Variable就只有 v1 v2 或者 p1 p2; 但是在一個(gè)文件同時(shí)運(yùn)行的時(shí)候,模型參數(shù)實(shí)際上保存的是 v1 v2 p1 p2四個(gè),因?yàn)樵谀J(rèn)情況下,創(chuàng)建的Saver,會(huì)直接保存所有的參數(shù)。而 Saver.restore() 又是默認(rèn)(無(wú)Variable參數(shù)列表時(shí))按照已經(jīng)定義好的全局模型變量來(lái)加載對(duì)應(yīng)的參數(shù)值, 在進(jìn)行 ModelV.predict時(shí),按照順序(從debug可以看出,應(yīng)該是按照參數(shù)順序一次檢測(cè))在模型文件中查找相應(yīng)的 key,此時(shí)能夠找到對(duì)應(yīng)的v1 v2,加載成功,但是在 ModelP.predict時(shí),在model_p的模型文件中找不到 v1 和 v2,只有 p1 和 p2, 此時(shí)就會(huì)報(bào)錯(cuò);不過(guò)這里的 第一次加載 還有 p1 p2 找不到?jīng)]有報(bào)錯(cuò),解釋不通, 未完待續(xù)

Saver.save() 和 Saver.restore() 是一對(duì), 分別只保存和加載模型的參數(shù), 但是模型的結(jié)構(gòu)怎么知道呢? 必須是你定義好了,而且要和保存的模型匹配才能加載;

如果想要在不定義模型的情況下直接加載出模型結(jié)構(gòu)和模型參數(shù)值,使用

?
1
2
3
4
5
6
7
8
9
10
11
12
13
# 加載 結(jié)構(gòu),即 模型參數(shù) 變量等
new_saver = tf.train.import_meta_graph("model_v/model.ckpt.meta")
print "ModelV construct"
all_vars = tf.trainable_variables()
for v in all_vars:
 print v.name
 #print v.name,v.eval(self.sess) # v 都還未初始化,不能求值
# 加載模型 參數(shù)變量 的 值
new_saver.restore(self.sess, tf.train.latest_checkpoint('model_v/'))
print "ModelV restored."
all_vars = tf.trainable_variables()
for v in all_vars:
 print v.name,v.eval(self.sess)

加載 結(jié)構(gòu),即 模型參數(shù) 變量等完成后,就會(huì)有變量了,但是不能訪問(wèn)他的值,因?yàn)檫€未賦值,然后再restore一次即可得到值了

那么上述錯(cuò)誤的解決方法就是這個(gè)改進(jìn)版本的model.py;其實(shí) tf.train.Saver 是可以帶參數(shù)的,他可以保存你想要保存的模型參數(shù),如果不帶參數(shù),很可能就會(huì)保存 tf.trainable_variables() 所有的variable,而 tf.trainable_variables()又是從 tf 全局得到的,因此只要在模型保存和加載時(shí),構(gòu)造對(duì)應(yīng)的帶參數(shù)的tf.train.Saver即可,這樣就會(huì)保存和加載正確的模型了

?
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
# -*- coding: utf8 -*-
 
import tensorflow as tf
 
class ModelV():
 
 def __init__(self):
 
  self.v1 = tf.Variable(66, name="v1")
  self.v2 = tf.Variable(77, name="v2")
  self.save_path = "model_v/model.ckpt"
  self.init = tf.global_variables_initializer()
 
  self.sess = tf.Session()
 
 def train(self):
  saver = tf.train.Saver([self.v1, self.v2])
  self.sess.run(self.init)
  print 'v2', self.v2.eval(self.sess)
 
  saver.save(self.sess, self.save_path)
  print "ModelV saved."
 
 def predict(self):
  saver = tf.train.Saver([self.v1, self.v2])
  all_vars = tf.trainable_variables()
  for v in all_vars:
   print v.name
 
  v_vars = [v for v in all_vars if v.name == 'v1:0' or v.name == 'v2:0']
  print "ModelV restored."
  saver.restore(self.sess, self.save_path)
  for v in v_vars:
   print v.name,v.eval(self.sess)
  print 'v2', self.v2.eval(self.sess)
  print '------------------------------------------------------------------'
 
class ModelP():
 
 def __init__(self):
 
  self.p1 = tf.Variable(88, name="p1")
  self.p2 = tf.Variable(99, name="p2")
  self.save_path = "model_p/model.ckpt"
  self.init = tf.global_variables_initializer()
  self.sess = tf.Session()
 
 def train(self):
  saver = tf.train.Saver([self.p1, self.p2])
  self.sess.run(self.init)
  print 'p2', self.p2.eval(self.sess)
 
  saver.save(self.sess, self.save_path)
  print "ModelP saved."
 
 def predict(self):
  saver = tf.train.Saver([self.p1, self.p2])
  all_vars = tf.trainable_variables()
  p_vars = [v for v in all_vars if v.name == 'p1:0' or v.name == 'p2:0']
  for v in all_vars:
   print v.name
   #print v.name,v.eval(self.sess)
  saver.restore(self.sess, self.save_path)
  print "ModelP restored."
  for p in p_vars:
   print p.name,p.eval(self.sess)
  print 'p2', self.p2.eval(self.sess)
  print '----------------------------------------------------------'
 
 
if __name__ == '__main__':
 v = ModelV()
 p = ModelP()
 v.predict()
 #v.train()
 p.predict()
 #p.train()

小結(jié): 構(gòu)造的Saver 最好帶Variable參數(shù),這樣保證 保存和加載能夠正確執(zhí)行

以上這篇解決tensorflow模型參數(shù)保存和加載的問(wèn)題就是小編分享給大家的全部?jī)?nèi)容了,希望能給大家一個(gè)參考,也希望大家多多支持服務(wù)器之家。

原文鏈接:https://blog.csdn.net/u014659656/article/details/53954793

延伸 · 閱讀

精彩推薦
主站蜘蛛池模板: 韩国一级淫片特黄特刺激 | 日韩成人av在线 | 亚洲高清国产拍精品动图 | 国内精品视频九九九九 | 国产综合欧美日韩视频一区 | 亚洲午夜久久久久国产 | 91制片厂制作传媒破解版免费 | 糖心在线观看网 | 男人爱看的网站 | 福利片成人午夜在线 | 青青青视频免费观看 | 国产免费一区二区三区免费视频 | 精品国偷自产在线 | 青青草99热久久 | 日日干影院 | 色老板在线视频观看 | 欧美日韩一级视频 | 日韩精品视频在线观看免费 | 国产高清好大好夹受不了了 | 日本一区二区高清免费不卡 | 小sao货ji巴cao死你视频 | 深夜福利免费观看 | 国产精品久久久久久久久久久搜索 | 古装一级无遮挡毛片免费观看 | 国产精品嫩草影院在线 | 四虎永久免费地址在线观看 | 50度灰破解版v5.7.0 | 国产精品一二区 | 亚洲国产自拍在线 | 寡妇一级毛片 | 色综合中文字幕天天在线 | 99热这里只有精品在线 | 亚洲人成激情在线播放 | 精品视频入口 | 三级黄片毛片 | 爱情岛论坛亚洲永久入口口 | 911亚洲精品国内自产 | 97色吧| 亚洲日韩中文字幕一区 | 日韩网新片免费 | 10个免费货源网站 |