• python深度学习-tensorflow实现一个线性回归的案例


    线性回归:w1x1+w2x2+w3x3+......+wnxn+bias(这是一个偏移量),我们采用的算法是:线性回归,策略是:均方误差,优化是:梯度下降API,

    1.转准备好实验的数据:100个数据,每一个有一个特征值,所以形成一个【100,1】的列表,在准备一个目标函数:y=0.8x+0.7那么怎么知道为什么是0.8和0.7呢,这是我们假设的

    2.建立一个模型,需要我们随机生成两个参数,一个是权重w一个是偏置b , y_predict = x * w + b,需要注意的是这个模型的参数必须要用变量来定义

    3.求损失误差,我们求的是均方误差,公式是:((y1-y1')^2+(y2-y2')^2+.......+(y100-y100')^2)/100

    4.接下来就是利用梯度下降来优化误差,这个梯度下降是tensorflow里边自己实现的,我们只需要指定一个学习率就行了

    Tensorflow运算的API

    矩阵运算:tf.matmul(x,w)

    平方运算:tf.square(参数1)

    均值运算:tf.reduce_mean(参数1)

    梯度下降API:  tf.train.GradientDescentOptimizer(learning_rate);这是一个梯度下降优化器,learn_rate一般是method:minimize(loss),返回一个梯度下降的op

    import tensorflow as tf
    import os
    os.environ['TF_CPP_MIN_LOG_LEVEL'] = '2'#把报错的这个警告等级降低
    
    def myLineregression():
        #1.准备数据,x是100行1列的矩阵,y是一个目标值,100行
        x = tf.random_normal([100,1],mean = 1.75,stddev=0.5,name="x_data")
        y_true = tf.matmul(x,[[0.7]]) + 0.8 #其中这个0.7和0.8是不知道的,在这里我们假设我们知道了
    
        #2.建立回归模型,1个特征值x 1个权重weight,一个偏置bias,组成:y = x*weight + bias,这里一定是变量
        #随机给一个权重和偏置,让他接下来去计算误差函数,然后再去优化,但是前提是必须是变量才能优化
        weigth = tf.Variable(tf.random_normal([1,1],mean=0.0,stddev=1.0),name='w')#即使是一个数也要表示成矩阵,一行一列表示一个矩阵
        bias = tf.Variable(0.0,name='b')
        y_predict = tf.matmul(x,weigth) + bias;
    
        #3建立损失函数
        loss = tf.reduce_mean(tf.square(y_true - y_predict))
    
        #4.梯度下降优化损失,learning_rate一般是在0~10,越小越好通常是,最大不要超过10,然后通过minimize()来优化误差函数loss
        train_op = tf.train.GradientDescentOptimizer(0.1).minimize(loss)
        #接下来就要通过会话来运行实现了,但在这之前需要初始化变量的op
        init_op = tf.global_variables_initializer()
    
        with tf.Session() as sess:
            #初始化变量
            sess.run(init_op)
            #打印最先初始化的权重个偏置
            print("最先初始化的权重:%f  和 偏置是:%f" %(weigth.eval(),bias.eval()))#最先初始化的权重:-0.475077  和 偏置是:0.000000
            # #运行优化,这只是训练一次的结果:优化后的权重:0.635607  和 偏置是:0.581311
            # sess.run(train_op)
            #循环训练,运行优化,优化1000次,越多越精确,越接近我们的假设值
            for i in range(1000):
                sess.run(train_op)
                #打印优化后的权重和偏置
                print("第%d次优化后的权重:%f  和 偏置是:%f" % (i,weigth.eval(), bias.eval()))
    
        return None
    
    if __name__ == "__main__":
        myLineregression()

     .......

    那么你可能有一个疑问,为什么weight和bias会一直变化呢,因为他两是tf.Variable类型的,在Variable()最后一个参数是trainable默认是True,如果你指定他是False的话,weight和bias就不会随着我们梯度变化来变化了

    我们接下来用变量作用域来实现一下:这样的作用有两个:第一:使得我们的代码更加爽目;第二:使得我们后台显示很流畅,否则可能会有点凌乱

    import tensorflow as tf
    import os
    os.environ['TF_CPP_MIN_LOG_LEVEL'] = '2'#把报错的这个警告等级降低
    
    def myLineregression():
        with tf.variable_scope("data"):
            #1.准备数据,x是100行1列的矩阵,y是一个目标值,100行
            x = tf.random_normal([100,1],mean = 1.75,stddev=0.5,name="x_data")
            y_true = tf.matmul(x,[[0.7]]) + 0.8 #其中这个0.7和0.8是不知道的,在这里我们假设我们知道了
        with tf.variable_scope("model"):
            #2.建立回归模型,1个特征值x 1个权重weight,一个偏置bias,组成:y = x*weight + bias,这里一定是变量
            #随机给一个权重和偏置,让他接下来去计算误差函数,然后再去优化,但是前提是必须是变量才能优化
            weigth = tf.Variable(tf.random_normal([1,1],mean=0.0,stddev=1.0),name='w')#即使是一个数也要表示成矩阵,一行一列表示一个矩阵
            bias = tf.Variable(0.0,name='b')
            y_predict = tf.matmul(x,weigth) + bias;
        with tf.variable_scope("loss"):
            #3建立损失函数
            loss = tf.reduce_mean(tf.square(y_true - y_predict))
        with tf.variable_scope("Optimizer"):
            #4.梯度下降优化损失,learning_rate一般是在0~10,越小越好通常是,最大不要超过10,然后通过minimize()来优化误差函数loss
            train_op = tf.train.GradientDescentOptimizer(0.1).minimize(loss)
            #接下来就要通过会话来运行实现了,但在这之前需要初始化变量的op
        init_op = tf.global_variables_initializer()
    
        with tf.Session() as sess:
            #在后台可视化观察图结构
            fileWrite = tf.summary.FileWriter("E:/python/day8/temp/summary/text/",graph=sess.graph)
            #接下来在终端运行tensorboard --logdir="E:/python/day8/temp/summary/text/",就会产生一个网址,在浏览器打开即可
            #初始化变量
            sess.run(init_op)
            #打印最先初始化的权重个偏置
            print("最先初始化的权重:%f  和 偏置是:%f" %(weigth.eval(),bias.eval()))#最先初始化的权重:-0.475077  和 偏置是:0.000000
            # #运行优化,这只是训练一次的结果:优化后的权重:0.635607  和 偏置是:0.581311
            # sess.run(train_op)
            #循环训练,运行优化
            for i in range(1000):
                sess.run(train_op)
                #打印优化后的权重和偏置
                print("第%d次优化后的权重:%f  和 偏置是:%f" % (i,weigth.eval(), bias.eval()))
    
        return None
    
    if __name__ == "__main__":
        myLineregression()

    后台样式:

    但是在大多数的时候我们需要观察我们变量的变化图示,这时候我们需要添加变量显示 ,步骤如下:

    添加变量显示的目的:观察模型的参数,损失值等变量值的变化

    第一步骤:收集变量,有下列三种函数,任选一中

    tf.summary.scalar(name="",tensor);name是你需要把他显示成什么名字的别名,tensor就是你显示的张量

    tf.summary.histogram(name="",tensor);收集高纬度的变量参数

    tf.summary.image(name="",tensor);收集输入图片张量能显示图片

    第二步骤:合并变量并写入到事件文件中,下列函数按步骤来,都要写!

    merged = tf.summary.merge_all()  #合并变量,这一步往往写在会话运行前

    summary = sess.run(merged );每次运行的时候都需要运行

    FileWrite.add_summary(summary,i);i表示第几次的值

    代码如下:

    import tensorflow as tf
    import os
    os.environ['TF_CPP_MIN_LOG_LEVEL'] = '2'#把报错的这个警告等级降低
    
    def myLineregression():
        with tf.variable_scope("data"):
            #1.准备数据,x是100行1列的矩阵,y是一个目标值,100行
            x = tf.random_normal([100,1],mean = 1.75,stddev=0.5,name="x_data")
            y_true = tf.matmul(x,[[0.7]]) + 0.8 #其中这个0.7和0.8是不知道的,在这里我们假设我们知道了
        with tf.variable_scope("model"):
            #2.建立回归模型,1个特征值x 1个权重weight,一个偏置bias,组成:y = x*weight + bias,这里一定是变量
            #随机给一个权重和偏置,让他接下来去计算误差函数,然后再去优化,但是前提是必须是变量才能优化
            weigth = tf.Variable(tf.random_normal([1,1],mean=0.0,stddev=1.0),name='w')#即使是一个数也要表示成矩阵,一行一列表示一个矩阵
            bias = tf.Variable(0.0,name='b')
            y_predict = tf.matmul(x,weigth) + bias;
        with tf.variable_scope("loss"):
            #3建立损失函数
            loss = tf.reduce_mean(tf.square(y_true - y_predict))
        with tf.variable_scope("Optimizer"):
            #4.梯度下降优化损失,learning_rate一般是在0~10,越小越好通常是,最大不要超过10,然后通过minimize()来优化误差函数loss
            train_op = tf.train.GradientDescentOptimizer(0.1).minimize(loss)
            #接下来就要通过会话来运行实现了,但在这之前需要初始化变量的op
        init_op = tf.global_variables_initializer()
        #收集tensor,为了添加变量显示
        tf.summary.scalar("losser",loss)
        tf.summary.histogram("weighter",weigth)
        #合并tensor的op,为了添加变量显示
        merged = tf.summary.merge_all()
    
        with tf.Session() as sess:
            #在后台可视化观察图结构
            fileWrite = tf.summary.FileWriter("E:/python/day8/temp/summary/text/",graph=sess.graph)
            #接下来在终端运行tensorboard --logdir="E:/python/day8/temp/summary/text/",就会产生一个网址,在浏览器打开即可
            #初始化变量
            sess.run(init_op)
            #打印最先初始化的权重个偏置
            print("最先初始化的权重:%f  和 偏置是:%f" %(weigth.eval(),bias.eval()))#最先初始化的权重:-0.475077  和 偏置是:0.000000
            # #运行优化,这只是训练一次的结果:优化后的权重:0.635607  和 偏置是:0.581311
            # sess.run(train_op)
            #循环训练,运行优化
            for i in range(1000):
                sess.run(train_op)
                #运行合并的tensor,为了添加变量显示
                summary = sess.run(merged)
                #把合并的op添加到事件文件中
                fileWrite.add_summary(summary,i)
                #打印优化后的权重和偏置
                print("第%d次优化后的权重:%f  和 偏置是:%f" % (i,weigth.eval(), bias.eval()))
    
        return None
    
    if __name__ == "__main__":
        myLineregression()

     

     有时候我们训练的数据相当的多,就会出现down 机的现象,这会使得我们之前训练很久的数据丢失,当你再次训练的时候又要重新开始,这是很浪费时间的,这时候我们要是有down机前的数据就好了,tensorflow就提供了这种模型保存和加载的功能。让我们看看怎么实现的吧。

    函数:

    1.Saver = tf.train.Saver(var_list,max_to_keep=5);var_list表示要保存和还原的变量,他可以作为一个列表或者字典来传递,max_to_keep要保留的最近检查点文件的最大数量,创建新文件时会删除旧文件,默认为5,如果是0则表示保留所有的检查点文件

    举个栗子:

    Saver.save(sess,"保存检查点文件的路径");

    在上次训练结束的位置开始训练:Saver.restore(sess,"保存检查点文件的路径")

    你会发现会把上次训练结束的数据保存到一个叫checkpoint的文件中

    import tensorflow as tf
    import os
    os.environ['TF_CPP_MIN_LOG_LEVEL'] = '2'#把报错的这个警告等级降低
    
    def myLineregression():
        with tf.variable_scope("data"):
            #1.准备数据,x是100行1列的矩阵,y是一个目标值,100行
            x = tf.random_normal([100,1],mean = 1.75,stddev=0.5,name="x_data")
            y_true = tf.matmul(x,[[0.7]]) + 0.8 #其中这个0.7和0.8是不知道的,在这里我们假设我们知道了
        with tf.variable_scope("model"):
            #2.建立回归模型,1个特征值x 1个权重weight,一个偏置bias,组成:y = x*weight + bias,这里一定是变量
            #随机给一个权重和偏置,让他接下来去计算误差函数,然后再去优化,但是前提是必须是变量才能优化
            weigth = tf.Variable(tf.random_normal([1,1],mean=0.0,stddev=1.0),name='w')#即使是一个数也要表示成矩阵,一行一列表示一个矩阵
            bias = tf.Variable(0.0,name='b')
            y_predict = tf.matmul(x,weigth) + bias;
        with tf.variable_scope("loss"):
            #3建立损失函数
            loss = tf.reduce_mean(tf.square(y_true - y_predict))
        with tf.variable_scope("Optimizer"):
            #4.梯度下降优化损失,learning_rate一般是在0~10,越小越好通常是,最大不要超过10,然后通过minimize()来优化误差函数loss
            train_op = tf.train.GradientDescentOptimizer(0.1).minimize(loss)
            #接下来就要通过会话来运行实现了,但在这之前需要初始化变量的op
        init_op = tf.global_variables_initializer()
        #收集tensor,为了添加变量显示
        tf.summary.scalar("losser",loss)
        tf.summary.histogram("weighter",weigth)
        #合并tensor的op,为了添加变量显示
        merged = tf.summary.merge_all()
        #定义一个保存模型的实例,只要是定义一个op就写在会话前边
        Saver = tf.train.Saver()
    
        with tf.Session() as sess:
            #在后台可视化观察图结构
            fileWrite = tf.summary.FileWriter("E:/python/day8/temp/summary/text/",graph=sess.graph)
            #接下来在终端运行tensorboard --logdir="E:/python/day8/temp/summary/text/",就会产生一个网址,在浏览器打开即可
            #初始化变量
            sess.run(init_op)
            #打印最先初始化的权重个偏置
            print("最先初始化的权重:%f  和 偏置是:%f" %(weigth.eval(),bias.eval()))#最先初始化的权重:-0.475077  和 偏置是:0.000000
            # #运行优化,这只是训练一次的结果:优化后的权重:0.635607  和 偏置是:0.581311
            # sess.run(train_op)
            #循环训练,运行优化
            #加载模型,从上次训练结束的位置开始
            if os.path.exists("E:/python/day8/temp/ckpt/textmodel"):
                Saver.restore(sess,"E:/python/day8/temp/ckpt/textmodel")
            for i in range(1000):
                sess.run(train_op)
                #运行合并的tensor,为了添加变量显示
                summary = sess.run(merged)
                #把合并的op添加到事件文件中
                fileWrite.add_summary(summary,i)
                #打印优化后的权重和偏置
                print("第%d次优化后的权重:%f  和 偏置是:%f" % (i,weigth.eval(), bias.eval()))
            Saver.save(sess,"E:/python/day8/temp/ckpt/textmodel")
        return None
    
    if __name__ == "__main__":
        myLineregression()
  • 相关阅读:
    二分查找binarySearch
    快速排序quicksort实现方法
    读书清单
    windows 下遍历文件夹
    如何输出 android.mk 及 Application.mk 中个变量的值
    【转】 armeabi与armeabi-v7a
    Application.mk
    【转】TypeError: 'module' object is not callable 原因分析
    User breakpoint called from code at XXX的解决方式记录
    关于溢出的一些体会
  • 原文地址:https://www.cnblogs.com/boost/p/13499900.html
Copyright © 2020-2023  润新知