天天看点

TensorFlow自实现线性回归训练(模板)-带模型保存以及tensorborad的使用的

import tensorflow as tf
import os

# 1、训练参数问题:trainable
# 学习率和步数的设置:

# 2、添加权重参数,损失值等在tensorboard观察的情况 1、收集变量2、合并变量写入事件文件
#tensorboard    --logdir C:\Users\Administrator\PycharmProjects\人工智能\深度学习\04-变量和模型保存加载\tmp

# 定义命令行参数(模型加载)
# 1、首先定义有哪些参数需要在运行时候指定
# 2、程序当中获取定义命令行参数

# 第一个参数:名字,默认值,说明
tf.app.flags.DEFINE_integer("max_step", 200, "模型训练的步数")
tf.app.flags.DEFINE_string("model_dir", " ", "模型文件的加载的路径")

# 定义获取命令行参数名字
FLAGS = tf.app.flags.FLAGS

def myregression():
    """自实现一个线性回归预测"""

    #1.准备数据, x特征值 [100, 1]   y 目标值 [100]
    #生成随机张量
    with tf.variable_scope("data"):
        x = tf.random_normal([100, 1], mean = 1.75 , stddev = 0.5 , name = "x_data")
        #使用矩阵相乘, 必须是二维的
        y_true = tf.matmul(x, [[0.7]]) + 0.8

    #2.建立线性回归模型, 一个特征,一个权重, 一个偏置 y=wx+b
    #随机给一个权重和偏置的值,让他去做计算, 在当前状态下优化
    #用变量定义才能优化
    #trainable参数:指定这个变量是否跟着梯度下降一起优化
    with tf.variable_scope("model"):
        weight = tf.Variable(tf.random_normal([1, 1], mean = 0.0, stddev = 1.0), name = "w")
        bias = tf.Variable(0.0 , name="b")

        y_predict = tf.matmul(x, weight) + bias

    #3.建立损失函数,均方误差
    with tf.variable_scope("loss"):
        loss = tf.reduce_mean(tf.square(y_true - y_predict))

    #4.梯度下降优化损失 learning_rate: 0~1, 2, 3, 5, 7, 10
    with tf.variable_scope("optimizer"):
        train_op = tf.train.GradientDescentOptimizer(0.1).minimize(loss)

    # 1、收集tensor
    tf.summary.scalar("losses", loss)
    tf.summary.histogram("weights", weight)

    # 定义合并tensor的op
    merged = tf.summary.merge_all()


    #定义一个初始化变量的op
    init_op = tf.global_variables_initializer()

    # 定义一个保存模型的实例
    saver = tf.train.Saver()


    #通过会话运行程序
    with tf.Session() as sess:
        #初始化变量
        sess.run(init_op)
        #打印随机最先初始化的权重和偏置
        print("随机初始化的参数权重为:%f, 偏置为:%f" % (weight.eval(), bias.eval()))

        # 建立事件文件
        filewriter = tf.summary.FileWriter("./tmp", graph=sess.graph)

        # 加载模型,覆盖模型当中随机定义的参数,从上次训练的参数结果开始
        if os.path.exists("./ckpt/checkpoint"):
            saver.restore(sess, FLAGS.model_dir)

        #循环训练 运行优化
        for i in range(FLAGS.max_step):
            sess.run(train_op)

            # 运行合并的tensor
            summary = sess.run(merged)

            filewriter.add_summary(summary, i)

            print("第%d次优化参数权重为:%f, 偏置为:%f" % (i, weight.eval(), bias.eval()))

        saver.save(sess, FLAGS.model_dir)

    return None

if __name__ == "__main__":
    myregression()
           

继续阅读