• ​DL_WITH_PY系统学习(第3章)


    本节提示:
    1、DL的核心构建
    2、Keras的简单介绍
    3、搭建DL机器训练环境
    4、使用DL模型解决基础问题

    3.1 DL的基本构建:layer
    layer的定义:以1个或多个tensor作为输入,并且运算出来1个或者多个tensor作为输出的数据处理模型。

    from keras import models
    from keras import layters

    model = models.Sequentail()
    model.add(layers.Dense(32,input_shape=784,)))
    model.add(layers.Dense(32))

    在这样的代码中,第二层的layer自动以前一层的结果大小为输入大小。

    3.2 DL的基本构建:model
    model的定义:一个DL的model是一个直接的、非循环的layer的图,是最直接的layers的线性表示方式,单输入并且但输出。
    model包含squence和model两种模式,这在之前已经讨论过。

    3.3 DL的基本构建:loss function和optimizers
    loss function:它表示的是当前训练项目的成功率;
    optimizers:    表示,基于当前的loss function,当前的网络采取什么样的方法优化。主要是体现在SGD的具体变化上。

    对于不同类型的训练,往往都有默认的很好的optimizers选择,只有当你进行专门的训练的时候,才可能需要采用自己定义的方法。

    3.4 DL训练的步骤
    3.4.1 定义你的数据集
    3.4.2 选择一种layers的组合方式(选择model)
    3.4.3 config选择的的model
    3.4.4 训练,并且得到结果
    在定义的过程中,有一些思考:
    a、为什么要使用激活层
    否则,原系统就是原始的线性系统,缺乏灵活性。
    b、关于损失函数的选择
    如果你使用的是binary函数,则
    loss='binary_crossentropy'
    当你想使用自定义的时候,尝试这个
    model.compile(optimizer=optimizers.RMSprop(lr=0.001),
    loss='binary_crossentropy',
    metrics=['accuracy'])
    实际上,很多时候,RMSprop都是一个不错的选择。
    3.5 fit()返回的是log,它是一个hash,类似这种结构
    ['acc','loss','val_acc','val_loss']

    3.6 predict
    model.predict(x_test)
    是对目前一个输入测试用例的实验。

    3.7 关于compile中参数的选择,这块的概论非常重要又很模糊
    一个典型的compile主要解决3个问题:
    optimizer是什么,loss是什么,metrics是什么。而这3个参数的选择,往往都和问题本身有关:
    optimizer:优化器,为预定义优化器名或优化器对象

    常见的目标函数

    rmsprop:绝大多数情况下都是可用的,该优化器通常是面对递归神经网络时的一个良好选择
    sgd:(似乎也是可以的)随机梯度下降法,支持动量参数,支持学习衰减率,支持Nesterov动量

    loss:categorical:绝对的;cross entropy 交叉熵)
    categorical_crossentropy 最好的选择,onehot
    sparse_categorical_crossentropy 当你的标签是integer的时候,选择
    binary_crossentropy 2类分类的时候,选择
    mse mean squared error 当你的问题是回归问题的时候选择(regression)
    而mae为 mean absolute error ,能够只管地显示出你在什么时候出现overfit

    可用的目标函数

    • mean_squared_error或mse

    • mean_absolute_error或mae

    • mean_absolute_percentage_error或mape

    • mean_squared_logarithmic_error或msle

    • squared_hinge

    • hinge

    • categorical_hinge

    • binary_crossentropy(亦称作对数损失,logloss)

    • logcosh

    • categorical_crossentropy:亦称作多类的对数损失,注意使用该目标函数时,需要将标签转化为形如(nb_samples, nb_classes)的二值序列

    • sparse_categorical_crossentrop:如上,但接受稀疏标签。注意,使用该函数时仍然需要你的标签与输出值的维度相同,你可能需要在标签数据上增加一个维度:np.expand_dims(y,-1)

    • kullback_leibler_divergence:从预测值概率分布Q到真值概率分布P的信息增益,用以度量两个分布的差异.

    • poisson:即(predictions - targets * log(predictions))的均值

    • cosine_proximity:即预测值与真实标签的余弦距离平均值的相反 

    metrics(列表,包含评估模型在训练和测试时的性能的指标)
    acc和accuracy,似乎是一个东西,或者metrics={'ouput_a': 'accuracy'}

    3.8 平滑绘制最后的曲线
    plt.plot(range(1,len(average_mae_history)+1),average_mae_history)到
     
    def smooth_curve(points,factor=0.9)
        smoothed_points = []
           for point in points:
              if smoothed_points:
                 previous = smoothed_points[-1]
                 smoothed_points.append(previous*factor+point*(1-factor))
               else:
                  smothed_points.append(point)
         return smoothed_points
    应该是有方法的,但是也是要到了多个epoch的时候才会出现这个问题。
       





  • 相关阅读:
    typescript
    heightChatrs
    数组的扩展
    es6函数扩展
    es6变量解构与函数解构
    C++ 编程技巧锦集(二)
    C++ 全排列
    C++ 编程技巧锦集(一)
    [Microsoft][ODBC Driver 11 for SQL Server][SQL Server]列名 'user1' 无效
    2016年天梯赛初赛题集
  • 原文地址:https://www.cnblogs.com/jsxyhelu/p/9103546.html
Copyright © 2020-2023  润新知