我已成功导出重新训练的InceptionV3 NN作为TensorFlow元图.我已经成功地将这个protobuf读回到python中,但我正在努力寻找一种方法来导出每个图层的权重和偏差值,我假设它存储在元图形protobuf中,用于重新创建TensorFlow外部的nn.
我的工作流程是这样的:
Retrain final layer for new categories
Export meta graph tf.train.export_meta_graph(filename='model.meta')
Build python pb2.py using Protoc and meta_graph.proto
Load Protobuf:
import meta_graph_pb2
saved = meta_graph_pb2.CollectionDef()
with open('model.meta', 'rb') as f:
saved.ParseFromString(f.read())
从这里我可以查看图表的大多数方面,如节点名称等,但我认为我的经验不足使得难以找到访问每个相关层的权重和偏差值的正确方法.
解决方法:
MetaGraphDef原型实际上并不包含权重和偏差的值.相反,它提供了一种方法,将GraphDef与存储在一个或多个检查点文件中的权重相关联,由tf.train.Saver
编写.MetaGraphDef
tutorial有更多细节,但近似结构如下:
>在训练计划中,使用tf.train.Saver写出检查点.这也会将MetaGraphDef写入同一目录中的.meta文件.
saver = tf.train.Saver(...)
# ...
saver.save(sess, "model")
您应该在检查点目录中找到名为model.meta和model-NNNN(对于某些整数NNNN)的文件.
>在另一个程序中,您可以导入刚创建的MetaGraphDef,并从检查点恢复.
saver = tf.train.import_meta_graph("model.meta")
saver.restore("model-NNNN") # Or whatever checkpoint filename was written.
如果要获取每个变量的值,可以(例如)在tf.all_variables()集合中找到该变量,并将其传递给sess.run()以获取其值.例如,要打印所有变量的值,可以执行以下操作:
for var in tf.all_variables():
print var.name, sess.run(var)
您还可以过滤tf.all_variables()以查找您尝试从模型中提取的特定权重和偏差.