新版本的tensorflow, 在訓練完畢後,用tf.train.Saver儲存模型的時候,一般檔案夾中會出現四個類似字樣的檔案,如下:
checkpoint : 記錄儲存的模型的名字
graph.ckpt.data-00000-of-00001 : 儲存所有變量的取值(權重,偏移等)
graph.ckpt.index:儲存所有的變量名稱
graph.ckpt.meta:儲存計算圖的結構
這樣的模型組織形式,在c++部署中應用起來比不友善,需要将參數固化在圖裡,成為一個*.pb模型檔案,下面是freeze的代碼,請參考:
import os, argparse
import tensorflow as tf
dir = os.path.dirname(os.path.realpath(__file__))
def freeze_graph(model_folder):
checkpoint = tf.train.get_checkpoint_state(model_folder) #原始模型路徑字首名稱
input_checkpoint = checkpoint.model_checkpoint_path
absolute_model_folder = "/".join(input_checkpoint.split('/')[:-1])
output_graph = "./video_lib" + "/frozen_model.pb" #輸出的模型路徑
output_node_names = "SparseSoftmaxCrossEntropyWithLogits/SparseSoftmaxCrossEntropyWithLogits" #指定所需要的輸出層(節點的名稱)
clear_devices = True
saver = tf.train.import_meta_graph(input_checkpoint + '.meta', clear_devices=clear_devices) #導入graph
graph = tf.get_default_graph()
#for op in graph.get_operations():
# print (op.name, op.values())
input_graph_def = graph.as_graph_def()
for node in input_graph_def.node: #輸出每個節點的名稱,可以檢視,并确定上面的output_node_names
print node.name
with tf.Session() as sess:
saver.restore(sess, input_checkpoint) #恢複原始儲存的模型到tensorflow的session中
output_graph_def = tf.compat.v1.graph_util.convert_variables_to_constants(sess, input_graph_def, output_node_names.split(",")) #轉換變量為常量,并儲存到graph中
with tf.gfile.GFile(output_graph, "wb") as f:
f.write(output_graph_def.SerializeToString())
print("%d ops in the final graph." % len(output_graph_def.node))
if __name__ == '__main__':
parser = argparse.ArgumentParser()
parser.add_argument("--model_folder", type=str, help="Model folder to export")
args = parser.parse_args()
freeze_graph(args.model_folder)