保存模型并不限于训练模型后,在训练模型之中也需要保存,因为Tensorflow训练模型时难免会出现中断的情况,我们自然希望能够将训练得到的参数保存下来,否则下次又要重新训练。这种在训练中保存模型,习惯上称之为保存检查点。
tf.train.get_checkpoint_state(checkpoint_dir,latest_filename=None):该函数表示如果断点文件夹中包含有效断点状态文件,则返回该文件。参数说明:
checkpoint_dir:表示存储断点文件的目录
latest_filename=None:断点文件的可选名称,默认为”checkpoint”
通过添加检查点,可以生成载入检查点文件,并能够指定生成检查文件的个数。saver中的max_to_keep=1,表面最多只保存一个检查点文件。
1 | saver=tf.train.Saver(max_to_keep=1) |
对checkpoint文件进行加载的第一种方法
1 | cpkt = tf.train.get_checkpoint_state(savedir) |
上面代码位置:
第二种方法
1 | kpt = tf.train.latest_checkpoint(savedir) |
我们还可以用更加简便的方法进行检查点的保存,tf.train.MonitoredTrainingSession()函数,该函数可以直接实现保存载入检查点模型的文件,与前面的方法不同的是,它是按照训练时间来保存检查点的,可以通过指定save_checkpoint_secs参数的具体秒数,设置多久保存一次检查点
1 | #每5秒后,保存一次检查点。默认的保存时间间隔是10分钟 |
这种按照时间保存的模式更适合用于使用大型数据集来训练复杂模型的情况。
使用该方法前,必须要定义global_step变量
1 | global_step=tf.train.get_or_create_global_step() |
1 | import tensorflow as tf |
第二个保存检查点的方法参考: https://www.cnblogs.com/baby-lily/p/10930591.html