• 百度PaddlePaddle入门-4(5步法之八股文)



    当习惯使用飞桨框架完成建模时,会发现程序呈现出“八股文”的形态。即不同的程序员使用不同模型解决不同任务的时候,他们编写的建模程序是极其相似的。虽然这在某些“极客”的眼里缺乏精彩,但从实用性的角度,这样的设计使建模者更关注需要解决的任务,而不是将精力投入在学习框架上。只要通过一个示例程序掌握使用飞桨的方法,编写实现不同任务的多种模型均变得十分容易。

    这点与Python的设计思想一致:对于某个特定功能,并不是实现方式越灵活、越多样越好,最好只有一种最符合“道”的最佳实现。“道”指的是如何人类的思维习惯,当程序员第一次看到Python的很多使用方式,感觉程序天然就应该如此实现。但相信我,不是所有的编程语言都具备这样合道的设计,很多编程语言的设计思路是人应该去理解机器的运作原理。同时,灵活意味着复杂,增加了程序员之间的沟通难度,也不适合现在工业化生产软件的现实。

    所以,飞桨设计的初衷不仅要易于学习,还期望使用者能够体会到它的美感和哲学,与人类最自然的认知和习惯相契合。

    本书中的案例覆盖经典的预测任务、推荐系统、计算机视觉和自然语言处理等主流应用场景,但所有的案例代码结构均完全一致,分为如下5个部分

    • 1. 数据处理:读取数据 和 预处理操作
    • 2. 模型设计:网络结构(假设)
    • 3. 训练配置:优化器(寻解算法)
    • 4. 训练过程:循环调用训练过程,包括前向计算 + 计算损失(优化目标) + 后向传播
    • 5. 保存模型并测试:将训练好的模型保存

    下面我们使用飞桨框架,按照五个步骤重写房价预测的模型,体会下使用飞桨框架的感觉。

    1 #加载飞桨、Numpy和相关类库
    2 import paddle
    3 import paddle.fluid as fluid
    4 import paddle.fluid.dygraph as dygraph
    5 from paddle.fluid.dygraph import FC
    6 import numpy as np
    7 import os
    8 import random

    1. 数据处理

    这部分代码不依赖框架实现,与使用Python编写神经网络模型的代码相同,不再赘述。

     1 def load_data():
     2     # 从文件导入数据
     3     datafile = './work/housing.data'
     4     data = np.fromfile(datafile, sep=' ')
     5 
     6     # 每条数据包括14项,其中前面13项是影响因素,第14项是相应的房屋价格中位数
     7     feature_names = [ 'CRIM', 'ZN', 'INDUS', 'CHAS', 'NOX', 'RM', 'AGE', 
     8                       'DIS', 'RAD', 'TAX', 'PTRATIO', 'B', 'LSTAT', 'MEDV' ]
     9     feature_num = len(feature_names)
    10 
    11     # 将原始数据进行Reshape,变成[N, 14]这样的形状
    12     data = data.reshape([data.shape[0] // feature_num, feature_num])
    13 
    14     # 将原数据集拆分成训练集和测试集
    15     # 这里使用80%的数据做训练,20%的数据做测试
    16     # 测试集和训练集必须是没有交集的
    17     ratio = 0.8
    18     offset = int(data.shape[0] * ratio)
    19     training_data = data[:offset]
    20 
    21     # 计算train数据集的最大值,最小值,平均值
    22     maximums, minimums, avgs = training_data.max(axis=0), training_data.min(axis=0), 
    23                                  training_data.sum(axis=0) / training_data.shape[0]
    24     
    25     # 记录数据的归一化参数,在预测时对数据做归一化
    26     global max_values
    27     global min_values
    28     global avg_values
    29     max_values = maximums
    30     min_values = minimums
    31     avg_values = avgs
    32 
    33     # 对数据进行归一化处理
    34     for i in range(feature_num):
    35         #print(maximums[i], minimums[i], avgs[i])
    36         data[:, i] = (data[:, i] - avgs[i]) / (maximums[i] - minimums[i])
    37 
    38     # 训练集和测试集的划分比例
    39     #ratio = 0.8
    40     #offset = int(data.shape[0] * ratio)
    41     training_data = data[:offset]
    42     test_data = data[offset:]
    43     return training_data, test_data

    上面中global标识的参数max_values,min_values, avg_values表示这些参数会被后面使用到的全局变量。


    2. 模型设计

    定义线性回归的网络结构,飞桨建议通过创建Python类的方式完成模型网络的定义。

    1. 在类的初始化函数中定义每一层网络的实现函数,这里我们定义了一层全连接层FC,模型结构和上一节模型保持一致。
    2. 定义forward函数构建神经网络结构,实现前向计算过程,并返回预测结果,本例中返回的是房价预测结果。
     1 class Regressor(fluid.dygraph.Layer):
     2     def __init__(self, name_scope):
     3         super(Regressor, self).__init__(name_scope)
     4         name_scope = self.full_name()
     5         # 定义一层全连接层,输出维度是1,激活函数为None,即不使用激活函数
     6         self.fc = FC(name_scope, size=1, act=None)
     7     
     8     # 网络的前向计算函数
     9     def forward(self, inputs):
    10         x = self.fc(inputs)
    11         return x

    说实话,我到现在还不明白init函数中的super与name_scope究竟起什么作用,还有就是参数fluid.dygraph.Layer,等后面看是否能了解更多。

    上面中全连接看起来很简单,就FC()。


    3. 训练配置

    训练配置包括:

    1. 声明定义好的模型。
    2. 加载训练数据和测试数据。
    3. 设置优化算法和学习率,本次实验优化算法使用随机梯度下降SGD,学习率使用 0.01。

    说明:
    在之前基于Python实现神经网络模型的案例中,我们为实现梯度下降编写了大量代码,而使用飞桨框架可以大大简化这个过程。

     1 # 定义飞桨动态图的工作环境
     2 with fluid.dygraph.guard():
     3     # 声明定义好的线性回归模型
     4     model = Regressor("Regressor")
     5     # 开启模型训练模式
     6     model.train()
     7     # 加载数据
     8     training_data, test_data = load_data()
     9     # 定义优化算法,这里使用随机梯度下降-SGD
    10     # 学习率设置为0.01
    11     opt = fluid.optimizer.SGD(learning_rate=0.01)

    注意: 上述代码中,可以发现声明模型,定义优化器等都在with创建的fluid.dygraph.guard()上下文环境中进行,可以理解为with fluid.dygraph.guard()创建了飞桨动态图的工作环境,在该环境下完成模型声明、数据转换、以及模型训练等操作。


    4. 训练过程

    完成训练配置后即可启动训练过程。训练采用二层循环嵌套方式:

    • 内层循环负责整个数据集的一次遍历,遍历数据集采用分批次(batch)方式,假设数据集样本数量为1000,一个批次有10个样本,则遍历一次数据集的批次数量是1000/10=100,即内层循环需要循环100次;
    • 外层循环定义遍历数据集的次数,本次训练中外层循环10次,通过参数EPOCH_NUM设置;

    说明:
    batch大小的选择会影响训练效果,batch过大会增大内存消耗,过小则每个batch的样本数据没有统计意义。本次训练数据集较小,我们设置batch为10。

    在每次内层循环都需要进行前向计算、损失函数计算和梯度反向传播三个步骤,计算的过程与Python编写的模型完全一致;

    1. 前向计算即将一个批次的样本数据灌入网络中,计算输出结果。
    2. 以前向计算结果和真实房价作为输入,通过损失函数square_error_cost计算出损失函数值(Loss)。
    3. 执行梯度反向传播backward函数,即从后到前逐层计算每一层的梯度,并根据设置的优化算法更新参数(opt.minimize)。

    这个实现过程令人惊喜,前向计算、计算损失和反向传播梯度,每个操作居然只有1-2行代码即可实现!我们再也不用一点点的实现模型训练的细节,这就是使用飞桨框架的威力!

     1 with dygraph.guard():
     2     EPOCH_NUM = 10   # 设置外层循环次数
     3     BATCH_SIZE = 10  # 设置batch大小
     4     
     5     # 定义外层循环
     6     for epoch_id in range(EPOCH_NUM):
     7         # 在每轮迭代开始之前,将训练数据的顺序随机的打乱
     8         np.random.shuffle(training_data)
     9         # 将训练数据进行拆分,每个batch包含10条数据
    10         mini_batches = [training_data[k:k+BATCH_SIZE] for k in range(0, len(training_data), BATCH_SIZE)]
    11         # 定义内层循环
    12         for iter_id, mini_batch in enumerate(mini_batches):
    13             x = np.array(mini_batch[:, :-1]).astype('float32') # 获得当前批次训练数据
    14             y = np.array(mini_batch[:, -1:]).astype('float32') # 获得当前批次训练标签(真实房价)
    15             # 将numpy数据转为飞桨动态图variable形式
    16             house_features = dygraph.to_variable(x)
    17             prices = dygraph.to_variable(y)
    18             
    19             # 前向计算
    20             predicts = model(house_features)
    21             
    22             # 计算损失
    23             loss = fluid.layers.square_error_cost(predicts, label=prices)
    24             avg_loss = fluid.layers.mean(fluid.layers.sqrt(loss))
    25             if iter_id%20==0:
    26                 print("epoch: {}, iter: {}, loss is: {}".format(epoch_id, iter_id, avg_loss.numpy()))
    27             
    28             # 反向传播
    29             avg_loss.backward()
    30             # 最小化loss,更新参数
    31             opt.minimize(avg_loss)
    32             # 清除梯度
    33             model.clear_gradients()
    34     # 保存模型
    35     fluid.save_dygraph(model.state_dict(), 'LR_model')
    epoch: 0, iter: 0, loss is: [0.13064814]
    epoch: 0, iter: 20, loss is: [0.13030791]
    epoch: 0, iter: 40, loss is: [0.16929719]
    epoch: 1, iter: 0, loss is: [0.15601738]
    epoch: 1, iter: 20, loss is: [0.12867273]
    epoch: 1, iter: 40, loss is: [0.09122001]
    epoch: 2, iter: 0, loss is: [0.10166822]
    epoch: 2, iter: 20, loss is: [0.18582721]
    epoch: 2, iter: 40, loss is: [0.03117907]
    epoch: 3, iter: 0, loss is: [0.16723469]
    epoch: 3, iter: 20, loss is: [0.14052589]
    epoch: 3, iter: 40, loss is: [0.09920945]
    epoch: 4, iter: 0, loss is: [0.10413358]
    epoch: 4, iter: 20, loss is: [0.10941665]
    epoch: 4, iter: 40, loss is: [0.07716788]
    epoch: 5, iter: 0, loss is: [0.14261496]
    epoch: 5, iter: 20, loss is: [0.22571495]
    epoch: 5, iter: 40, loss is: [0.02776246]
    epoch: 6, iter: 0, loss is: [0.2060508]
    epoch: 6, iter: 20, loss is: [0.11329012]
    epoch: 6, iter: 40, loss is: [0.12139077]
    epoch: 7, iter: 0, loss is: [0.11622548]
    epoch: 7, iter: 20, loss is: [0.11667629]
    epoch: 7, iter: 40, loss is: [0.17747328]
    epoch: 8, iter: 0, loss is: [0.04951411]
    epoch: 8, iter: 20, loss is: [0.13682985]
    epoch: 8, iter: 40, loss is: [0.05742968]
    epoch: 9, iter: 0, loss is: [0.07207447]
    epoch: 9, iter: 20, loss is: [0.16950324]
    epoch: 9, iter: 40, loss is: [0.19291244]


    5. 保存并测试模型

    在完成两层循环的训练过程后,将模型当前的参数(model.state_dict())保存到文件中(通过参数指定保存的文件名 LR_model),以备预测或校验的程序调用。

    1 # 定义飞桨动态图工作环境
    2 with fluid.dygraph.guard():
    3     # 保存模型参数,文件名为LR_model
    4     fluid.save_dygraph(model.state_dict(), 'LR_model')
    5     print("模型保存成功,模型参数保存在LR_model中")
    模型保存成功,模型参数保存在LR_model中

    回顾下基于飞桨实现的房价预测模型,实现的效果与之前基于Python实现的模型没有区别,但两者的实现成本有天壤之别。飞桨的愿景是用户只需要了解模型的逻辑概念,不需要关心实现细节,就能搭建强大的模型。

    下面我们选择一条数据样本,测试下模型的预测效果。 测试过程和在应用场景中使用模型的过程是一致的,可分成三个主要步骤。

    • 首先,配置模型预测的机器资源,本案例默认使用本机,所以无需写代码指定。
    • 其次,将训练好的模型参数加载到模型实例中,由两个语句完成,第一句是从文件中读取模型参数,第二句是将参数内容加载到模型。加载完毕后,需要将模型的状态调整为“校验”(evalueation)。这是因为训练状态的模型需要同时支持前向计算和反向传导梯度,模型的实现较为臃肿。而校验/预测状态的模型只需要支持前向计算,模型的实现更加简单,性能更好。
    • 最后,将待预测的样本特征输入到模型中,打印输出的预测结果。比较“模型预测值”和“真实房价”可见,模型预测的效果与真实房价接近。

    load_one_example函数实现了从数据集中抽一条样本作为测试样本。

     1 def load_one_example(data_dir):
     2     f = open(data_dir, 'r')
     3     datas = f.readlines()
     4     # 选择倒数第10条数据用于测试
     5     tmp = datas[-10]
     6     tmp = tmp.strip().split()
     7     one_data = [float(v) for v in tmp]
     8 
     9     # 对数据进行归一化处理
    10     for i in range(len(one_data)-1):
    11         one_data[i] = (one_data[i] - avg_values[i]) / (max_values[i] - min_values[i])
    12 
    13     data = np.reshape(np.array(one_data[:-1]), [1, -1]).astype(np.float32)
    14     label = one_data[-1]
    15     return data, label
     1 with dygraph.guard():
     2     # 参数为保存模型参数的文件地址
     3     model_dict, _ = fluid.load_dygraph('LR_model')
     4     model.load_dict(model_dict)
     5     model.eval()
     6 
     7     # 参数为数据集的文件地址
     8     test_data, label = load_one_example('./work/housing.data')
     9     # 将数据转为动态图的variable格式
    10     test_data = dygraph.to_variable(test_data)
    11     results = model(test_data)
    12 
    13     # 对结果做反归一化处理
    14     results = results * (max_values[-1] - min_values[-1]) + avg_values[-1]
    15     print("Inference result is {}, the corresponding label is {}".format(results.numpy(), label))

    房价预测仅是一个最简单的模型,使用飞桨编写均可以事半功倍。那么,对于工业实践中更复杂的模型,使用飞桨节约的成本是不可估量的。同时,因为飞桨针对很多应用场景和机器资源做了性能优化,在功能和性能上往往强于自行编写的模型。

  • 相关阅读:
    jmeter中response data出现乱码的解决方法
    jmeter功能摘要
    jmeter的安装目录文件
    C语言中if(a);if(!a);if(a!=0);if(a==0)有什么区别?
    python怎么连接redis(附源码)
    组管理和权限管理
    实用指令
    用户管理
    开机/重启/用户切换/注销
    vim快捷键
  • 原文地址:https://www.cnblogs.com/yuzaihuan/p/12261522.html
Copyright © 2020-2023  润新知