内容:包含tensorflow变量作用域、tensorboard收集、模型保存与加载、自定义命令行参数
1、知识点
"""
1、训练过程:
1、准备好特征和目标值
2、建立模型,随机初始化权重和偏置; 模型的参数必须要使用变量
3、求损失函数,误差为均方误差
4、梯度下降去优化损失过程,指定学习率 2、Tensorflow运算API:
1、矩阵运算:tf.matmul(x,w)
2、平方:tf.square(error)
3、均值:tf.reduce_mean(error)
4、梯度下降API: tf.train.tf.train.GradientDescentOptimizer(learning_rate)
learning_rate:学习率
minimize(lose):优化最小损失
return:梯度下降op
3、注意项:
1、tf.Variable()中的trainable表示为变量在训练过程可变
2、学习率设置很大时,可能会出现权重和偏置为NAN,这种现象表现叫梯度爆炸
解决方法:1、重新设计网络 2、调整学习率 3、使用梯度截断 4、使用激活函数 4、变量作用域:主要用于tensorboard查看,同时使代码更加清晰 with tf.variable_scope("data"): 5、添加权重、参数、损失值等在tensoroard观察的情况:
1、收集tensor变量 tf.summary.scalar('losses', loss)、tf.summary.histogram('weight',weight)
2、合并变量并写入事件文件:merged = tf.summary.merge_all()
3、运行合并的tensor:summary = sess.run(merged)、fileWriter.add_summary(summary,i) 6、模型保存与加载: tf.train.Saver(var_list=None,max_to_keep=5)
var_list:指定将要保存和还原的变量。它可以作为一个dict或一个列表传递.
max_to_keep:指示要保留的最近检查点文件的最大数量。
创建新文件时,会删除较旧的文件。如果无或0,则保留所有
检查点文件。默认为5(即保留最新的5个检查点文件。
a)例如:saver.save(sess, '/tmp/ckpt/test/model')
saver.restore(sess, '/tmp/ckpt/test/model')
保存文件格式:checkpoint文件 b)模型加载:
if os.path.exists('./ckpt/checkpoint'):
saver.restore(sess,'./ckpt/model') 7、自定义命令行参数:
1、首先定义有哪些参数需要在运行时候指定
2、程序当中获取定义命令行参数
3、运行 python *.py --max_step=500 --model_dir='./ckpt/model'
本例执行命令:python tensorflow实现线性回归.py --max_step=50 --model_dir="./ckpt/model" """
2、代码
# coding = utf-8
import tensorflow as tf
import os #自定义命令行参数
tf.app.flags.DEFINE_integer("max_step",100,"模型训练的步数")
tf.app.flags.DEFINE_string("model_dir"," ","模型文件加载路径")
#定义获取命令行参数名字
FLAGS = tf.app.flags.FLAGS
def myLinear():
"""
自实现一个线性回归预测
:return:
"""
#定义作用域
with tf.variable_scope("data"):
#1、准备数据,特征值
x = tf.random_normal([100,1],mean=1.75,stddev=0.5)
#目标值。矩阵相乘,必须是二维的
y_true = tf.matmul(x,[[0.7]])+0.8 with tf.variable_scope("model"):
#2、建立线性模型 y = wx+b ,随机给定w和b的值,必须定义成变量
weight = tf.Variable(tf.random_normal([1,1],mean=0.0,stddev=1.0,name="w"))
bias = tf.Variable(0.0,name="b")
y_predict = tf.matmul(x,weight)+bias with tf.variable_scope("loss"):
#3、建立损失函数,均方误差
loss = tf.reduce_mean(tf.square(y_true-y_predict))
with tf.variable_scope("optimizer"):
#4、梯度下降优化损失
train_op = tf.train.GradientDescentOptimizer(learning_rate=0.01).minimize(loss) ##############模型保存################
with tf.variable_scope("save_model"):
saver = tf.train.Saver(); # 初始化变量
init_op = tf.global_variables_initializer()
####################收集变量#########################
# 收集tensor变量
tf.summary.scalar('losses', loss)
tf.summary.histogram('weight',weight) #合并变量并写入事件文件
merged = tf.summary.merge_all()
#通过会话运行程序
with tf.Session() as sess:
#必须要运行初始化变量
sess.run(init_op) #打印随机最先初始化的权重和偏置
print("随机初始化的参数权重为:%f,偏置为:%f" % (weight.eval(),bias.eval()))
# 建立事件文件
fileWriter = tf.summary.FileWriter("./tmp", graph=sess.graph) ###########加载模型,覆盖之前的参数##############
if os.path.exists('./ckpt/checkpoint'):
#saver.restore(sess,'./ckpt/model')
saver.restore(sess, FLAGS.model_dir) #循环优化
for i in range(FLAGS.max_step):
#运行优化
sess.run(train_op)
#运行合并的tensor
summary = sess.run(merged)
fileWriter.add_summary(summary,i)
print("第%d次优化参数权重为:%f,偏置为:%f" % (i,weight.eval(), bias.eval()))
################模型保存##############
# if i%1000==0:
# #saver.save(sess,'./ckpt/model')
# saver.save(sess,FLAGS.model_dir)
saver.save(sess, FLAGS.model_dir)
return None if __name__ == '__main__':
myLinear()