• 从模型训练中认知拟合现象


    机器学习中模型训练是必需的,在模型训练中存在两类典型的问题:

    欠拟合 (underfitting)

    模型无法得到较低的训练误差

    过拟合 (overfitting)

    模型的训练误差远小于它在测试数据集上的误差

    实际训练过程中可能会出现两类问题的并发症,而且会有多种因素直接或间接地导致这种情况出现

    影响因素

    介绍其中两个因素:模型复杂度和训练数据集大小。

    模型复杂度

    以多项式函数拟合为例。给定一个由标量数据特征xx和对应的标量标签yy组成的训练数据集,多项式函数拟合的目标是找一个KK阶多项式函数

    y^=b+k=1Kxkwk hat{y} = b + sum_{k=1}^K x^k w_k

    来近似 yy

    在上式中,wkw_k是模型的权重参数,bb是偏差参数。与线性回归相同,多项式函数拟合也使用平方损失函数。特别地,一阶多项式函数拟合又叫线性函数拟合。

    给定训练数据集,模型复杂度和误差之间的关系:

    训练数据集大小

    一般来说,如果训练数据集中样本数过少,特别是比模型参数数量(按元素计)更少时,过拟合更容易发生。

    此外,泛化误差不会随训练数据集里样本数量增加而增大。因此,在计算资源允许的范围之内,我们通常希望训练数据集大一些,特别是在模型复杂度较高时,例如层数较多的深度学习模型。


    训练误差和泛化误差

        通俗来讲,前者指模型在训练数据集上表现出的误差,后者指模型在任意一个测试数据样本上表现出的误差的期望,并常常通过测试数据集上的误差来近似。

        计算训练误差和泛化误差可以使用之前介绍过的损失函数,例如线性回归用到的平方损失函数和softmax回归用到的交叉熵损失函数。

        机器学习模型应关注降低泛化误差。


    多项式函数拟合实验

    # import package and module
    %matplotlib inline
    import torch
    import numpy as np
    import sys
    sys.path.append("path to file storge d2lzh1981")
    import d2lzh1981 as d2l
    

    初始化模型参数

    n_train, n_test, true_w, true_b = 100, 100, [1.2, -3.4, 5.6], 5
    features = torch.randn((n_train + n_test, 1))
    poly_features = torch.cat((features, torch.pow(features, 2), torch.pow(features, 3)), 1) 
    labels = (true_w[0] * poly_features[:, 0] + true_w[1] * poly_features[:, 1]
              + true_w[2] * poly_features[:, 2] + true_b)
    labels += torch.tensor(np.random.normal(0, 0.01, size=labels.size()), dtype=torch.float)
    

    定义和训练参数模型

    def semilogy(x_vals, y_vals, x_label, y_label, x2_vals=None, y2_vals=None,
                 legend=None, figsize=(3.5, 2.5)):
        # d2l.set_figsize(figsize)
        d2l.plt.xlabel(x_label)
        d2l.plt.ylabel(y_label)
        d2l.plt.semilogy(x_vals, y_vals)
        if x2_vals and y2_vals:
            d2l.plt.semilogy(x2_vals, y2_vals, linestyle=':')
            d2l.plt.legend(legend)
    
    num_epochs, loss = 100, torch.nn.MSELoss()
    
    def fit_and_plot(train_features, test_features, train_labels, test_labels):
        # 初始化网络模型
        net = torch.nn.Linear(train_features.shape[-1], 1)
        # 通过Linear文档可知,pytorch已经将参数初始化了,所以我们这里就不手动初始化了
        
        # 设置批量大小
        batch_size = min(10, train_labels.shape[0])    
         # 设置数据集
        dataset = torch.utils.data.TensorDataset(train_features, train_labels)
        # 设置获取数据方式     
        train_iter = torch.utils.data.DataLoader(dataset, batch_size, shuffle=True) 
        # 设置优化函数,使用的是随机梯度下降优化
        optimizer = torch.optim.SGD(net.parameters(), lr=0.01)                      
        train_ls, test_ls = [], []
        for _ in range(num_epochs):
        	# 取一个批量的数据
            for X, y in train_iter:               
            	# 输入到网络中计算输出,并和标签比较求得损失函数                                  
                l = loss(net(X), y.view(-1, 1)) 
                # 梯度清零,防止梯度累加干扰优化                                   
                optimizer.zero_grad()                                               
                l.backward() # 求梯度
                optimizer.step() # 迭代优化函数,进行参数优化
            train_labels = train_labels.view(-1, 1)
            test_labels = test_labels.view(-1, 1)
            # 将训练损失保存到train_ls中
            train_ls.append(loss(net(train_features), train_labels).item())
            # 将测试损失保存到test_ls中         
            test_ls.append(loss(net(test_features), test_labels).item())            
        print('final epoch: train loss', train_ls[-1], 'test loss', test_ls[-1])    
        semilogy(range(1, num_epochs + 1), train_ls, 'epochs', 'loss',
                 range(1, num_epochs + 1), test_ls, ['train', 'test'])
        print('weight:', net.weight.data,
              '
    bias:', net.bias.data)
    

    对比三种拟合现象

    正常

    fit_and_plot(poly_features[:n_train, :], poly_features[n_train:, :], labels[:n_train], labels[n_train:])

    欠拟合

    fit_and_plot(features[:n_train, :], features[n_train:, :], labels[:n_train], labels[n_train:])

    过拟合

    fit_and_plot(poly_features[0:2, :], poly_features[n_train:, :], labels[0:2], labels[n_train:])

    针对两类拟合问题的解决办法

    权重衰减–过拟合

    方法

        权重衰减等价于 L2L_2 范数正则化(regularization)。正则化通过为模型损失函数添加惩罚项使学出的模型参数值较小,是应对过拟合的常用手段。

    L2 范数正则化(regularization)

        L2L_2范数正则化在模型原损失函数基础上添加L2L_2范数惩罚项,从而得到训练所需要最小化的函数。L2L_2范数惩罚项指的是模型权重参数每个元素的平方和与一个正的常数的乘积。以线性回归中的线性回归损失函数为例

    (w1,w2,b)=1ni=1n12(x1(i)w1+x2(i)w2+by(i))2 ell(w_1, w_2, b) = frac{1}{n} sum_{i=1}^n frac{1}{2}left(x_1^{(i)} w_1 + x_2^{(i)} w_2 + b - y^{(i)} ight)^2

    其中w1,w2w_1, w_2是权重参数,bb是偏差参数,样本ii的输入为x1(i),x2(i)x_1^{(i)}, x_2^{(i)},标签为y(i)y^{(i)},样本数为nn。将权重参数用向量w=[w1,w2]oldsymbol{w} = [w_1, w_2]表示,带有L2L_2范数惩罚项的新损失函数为

    (w1,w2,b)+λ2nw2, ell(w_1, w_2, b) + frac{lambda}{2n} |oldsymbol{w}|^2,

    其中超参数λ>0lambda > 0。当权重参数均为0时,惩罚项最小。当λlambda较大时,惩罚项在损失函数中的比重较大,这通常会使学到的权重参数的元素较接近0。当λlambda设为0时,惩罚项完全不起作用。上式中L2L_2范数平方w2|oldsymbol{w}|^2展开后得到w12+w22w_1^2 + w_2^2

        有了L2L_2范数惩罚项后,在小批量随机梯度下降中,我们将 Design and Realization of Linear Regression 中权重w1w_1w2w_2的迭代方式更改为

    w1(1ηλB)w1ηBiBx1(i)(x1(i)w1+x2(i)w2+by(i)),w2(1ηλB)w2ηBiBx2(i)(x1(i)w1+x2(i)w2+by(i)). egin{aligned} w_1 &leftarrow left(1- frac{etalambda}{|mathcal{B}|} ight)w_1 - frac{eta}{|mathcal{B}|} sum_{i in mathcal{B}}x_1^{(i)} left(x_1^{(i)} w_1 + x_2^{(i)} w_2 + b - y^{(i)} ight),\ w_2 &leftarrow left(1- frac{etalambda}{|mathcal{B}|} ight)w_2 - frac{eta}{|mathcal{B}|} sum_{i in mathcal{B}}x_2^{(i)} left(x_1^{(i)} w_1 + x_2^{(i)} w_2 + b - y^{(i)} ight). end{aligned}

    可见,L2L_2范数正则化令权重w1w_1w2w_2先自乘小于1的数,再减去不含惩罚项的梯度。

    因此,$L_2$范数正则化又叫权重衰减。权重衰减通过惩罚绝对值较大的模型参数为需要学习的模型增加了限制,这可能对过拟合有效

    应用【剑指高维线性回归带来的过拟合】

        设数据样本特征的维度为pp。对于训练数据集和测试数据集中特征为x1,x2,,xpx_1, x_2, ldots, x_p的任一样本,使用如下的线性函数来生成该样本的标签:

    y=0.05+i=1p0.01xi+ϵ y = 0.05 + sum_{i = 1}^p 0.01x_i + epsilon

    其中噪声项ϵepsilon服从均值为0、标准差为0.01的正态分布。为了较容易地观察过拟合,我们考虑高维线性回归问题,如设维度p=200p=200;同时,我们特意把训练数据集的样本数设低,如20。

    %matplotlib inline
    import torch
    import torch.nn as nn
    import numpy as np
    import sys
    sys.path.append("path to file storge d2lzh1981")
    import d2lzh1981 as d2l
    
    初始化模型参数
    n_train, n_test, num_inputs = 20, 100, 200
    true_w, true_b = torch.ones(num_inputs, 1) * 0.01, 0.05
    
    features = torch.randn((n_train + n_test, num_inputs))
    labels = torch.matmul(features, true_w) + true_b
    labels += torch.tensor(np.random.normal(0, 0.01, size=labels.size()), dtype=torch.float)
    train_features, test_features = features[:n_train, :], features[n_train:, :]
    train_labels, test_labels = labels[:n_train], labels[n_train:]
    # 定义参数初始化函数,初始化模型参数并且附上梯度
    def init_params():
        w = torch.randn((num_inputs, 1), requires_grad=True)
        b = torch.zeros(1, requires_grad=True)
        return [w, b]
    
    定义L2范数惩罚项
    def l2_penalty(w):
        return (w**2).sum() / 2
    
    训练和测试
    batch_size, num_epochs, lr = 1, 100, 0.003
    net, loss = d2l.linreg, d2l.squared_loss
    
    dataset = torch.utils.data.TensorDataset(train_features, train_labels)
    train_iter = torch.utils.data.DataLoader(dataset, batch_size, shuffle=True)
    
    def fit_and_plot(lambd):
        w, b = init_params()
        train_ls, test_ls = [], []
        for _ in range(num_epochs):
            for X, y in train_iter:
                # 添加了L2范数惩罚项
                l = loss(net(X, w, b), y) + lambd * l2_penalty(w)
                l = l.sum()
                
                if w.grad is not None:
                    w.grad.data.zero_()
                    b.grad.data.zero_()
                l.backward()
                d2l.sgd([w, b], lr, batch_size)
            train_ls.append(loss(net(train_features, w, b), train_labels).mean().item())
            test_ls.append(loss(net(test_features, w, b), test_labels).mean().item())
        d2l.semilogy(range(1, num_epochs + 1), train_ls, 'epochs', 'loss',
                     range(1, num_epochs + 1), test_ls, ['train', 'test'])
        print('L2 norm of w:', w.norm().item())
    
    对比过拟合与权重衰减处理

    过拟合

    fit_and_plot(lambd=0)

    权重衰减处理

    fit_and_plot(lambd=3)

    权重衰减的简化

    def fit_and_plot_pytorch(wd):
        # 对权重参数衰减。权重名称一般是以weight结尾
        net = nn.Linear(num_inputs, 1)
        nn.init.normal_(net.weight, mean=0, std=1)
        nn.init.normal_(net.bias, mean=0, std=1)
        optimizer_w = torch.optim.SGD(params=[net.weight], lr=lr, weight_decay=wd) # 对权重参数衰减
        optimizer_b = torch.optim.SGD(params=[net.bias], lr=lr)  # 不对偏差参数衰减
        
        train_ls, test_ls = [], []
        for _ in range(num_epochs):
            for X, y in train_iter:
                l = loss(net(X), y).mean()
                optimizer_w.zero_grad()
                optimizer_b.zero_grad()
                
                l.backward()
                
                # 对两个optimizer实例分别调用step函数,从而分别更新权重和偏差
                optimizer_w.step()
                optimizer_b.step()
            train_ls.append(loss(net(train_features), train_labels).mean().item())
            test_ls.append(loss(net(test_features), test_labels).mean().item())
        d2l.semilogy(range(1, num_epochs + 1), train_ls, 'epochs', 'loss',
                     range(1, num_epochs + 1), test_ls, ['train', 'test'])
        print('L2 norm of w:', net.weight.data.norm().item())
    

    训练结果与手动实现基本一致

    丢弃法–过拟合

    只能用于模型训练

    Multilayer Perceptron & Classify image 中神经网络图描述了一个单隐藏层的多层感知机。其中输入个数为4,隐藏单元个数为5,且隐藏单元hih_ii=1,,5i=1, ldots, 5)的计算表达式为

    hi=ϕ(x1w1i+x2w2i+x3w3i+x4w4i+bi) h_i = phileft(x_1 w_{1i} + x_2 w_{2i} + x_3 w_{3i} + x_4 w_{4i} + b_i ight)

    这里ϕphi是激活函数,x1,,x4x_1, ldots, x_4是输入,隐藏单元ii的权重参数为w1i,,w4iw_{1i}, ldots, w_{4i},偏差参数为bib_i

    当对该隐藏层使用丢弃法时,该层的隐藏单元将有一定概率被丢弃掉。设丢弃概率为pp,那么有pp的概率hih_i会被清零,有1p1-p的概率hih_i会除以1p1-p做拉伸。

    丢弃概率是丢弃法的超参数。具体来说,设随机变量ξixi_i为0和1的概率分别为pp1p1-p。使用丢弃法时我们计算新的隐藏单元hih_i'

    hi=ξi1phi h_i' = frac{xi_i}{1-p} h_i

    由于E(ξi)=1pE(xi_i) = 1-p,因此

    E(hi)=E(ξi)1phi=hi E(h_i') = frac{E(xi_i)}{1-p}h_i = h_i

    即丢弃法不改变其输入的期望值。

    对之前多层感知机的神经网络中的隐藏层使用丢弃法,一种可能的结果如图所示,其中h2h_2h5h_5被清零。这时输出值的计算不再依赖h2h_2h5h_5,在反向传播时,与这两个隐藏单元相关的权重的梯度均为0。由于在训练中隐藏层神经元的丢弃是随机的,即h1,,h5h_1, ldots, h_5都有可能被清零,输出层的计算无法过度依赖h1,,h5h_1, ldots, h_5中的任一个。

    %matplotlib inline
    import torch
    import torch.nn as nn
    import numpy as np
    import sys
    sys.path.append("path to file storge d2lzh1981")
    import d2lzh1981 as d2l
    

    丢弃函数

    ‘’‘
    :param:drop_prob:丢失率
    :param:keep_prob:保存率
    ’‘’
    def dropout(X, drop_prob):
        X = X.float()
        assert 0 <= drop_prob <= 1
        keep_prob = 1 - drop_prob
        # 这种情况下把全部元素都丢弃 keep_prob 是保存率
        if keep_prob == 0:
            return torch.zeros_like(X)
        mask = (torch.rand(X.shape) < keep_prob).float()
        
        return mask * X / keep_prob
    

    初始化参数

    # 参数的初始化
    num_inputs, num_outputs, num_hiddens1, num_hiddens2 = 784, 10, 256, 256
    
    W1 = torch.tensor(np.random.normal(0, 0.01, size=(num_inputs, num_hiddens1)), dtype=torch.float, requires_grad=True)
    b1 = torch.zeros(num_hiddens1, requires_grad=True)
    W2 = torch.tensor(np.random.normal(0, 0.01, size=(num_hiddens1, num_hiddens2)), dtype=torch.float, requires_grad=True)
    b2 = torch.zeros(num_hiddens2, requires_grad=True)
    W3 = torch.tensor(np.random.normal(0, 0.01, size=(num_hiddens2, num_outputs)), dtype=torch.float, requires_grad=True)
    b3 = torch.zeros(num_outputs, requires_grad=True)
    
    params = [W1, b1, W2, b2, W3, b3]
    

    添加丢弃层

    drop_prob1, drop_prob2 = 0.2, 0.5
    
    def net(X, is_training=True):
        X = X.view(-1, num_inputs)
        H1 = (torch.matmul(X, W1) + b1).relu()
        if is_training:  # 只在训练模型时使用丢弃法
            H1 = dropout(H1, drop_prob1)  # 在第一层全连接后添加丢弃层
        H2 = (torch.matmul(H1, W2) + b2).relu()
        if is_training:
            H2 = dropout(H2, drop_prob2)  # 在第二层全连接后添加丢弃层
        return torch.matmul(H2, W3) + b3
    

    模型评估

    def evaluate_accuracy(data_iter, net):
        acc_sum, n = 0.0, 0
        for X, y in data_iter:
            if isinstance(net, torch.nn.Module):
                net.eval()  # 评估模式, 这会关闭dropout
                acc_sum += (net(X).argmax(dim=1) == y).float().sum().item()
                net.train()  # 改回训练模式
            else:  # 自定义的模型
                if('is_training' in net.__code__.co_varnames):  # 如果有is_training这个参数
                    # 将is_training设置成False
                    acc_sum += (net(X, is_training=False).argmax(dim=1)
                                == y).float().sum().item()
                else:
                    acc_sum += (net(X).argmax(dim=1) == y).float().sum().item()
            n += y.shape[0]
        return acc_sum / n
    
    

    模型训练

    num_epochs, lr, batch_size = 5, 100.0, 256  # 这里的学习率设置的很大,原因与之前相同。
    loss = torch.nn.CrossEntropyLoss()
    train_iter, test_iter = d2l.load_data_fashion_mnist(
        batch_size, root='path to FashionMNIST2065')
    d2l.train_ch3(
        net,
        train_iter,
        test_iter,
        loss,
        num_epochs,
        batch_size,
        params,
        lr)
    

    丢弃法的简化

    net = nn.Sequential(
            d2l.FlattenLayer(),
            nn.Linear(num_inputs, num_hiddens1),
            nn.ReLU(),
            nn.Dropout(drop_prob1),
            nn.Linear(num_hiddens1, num_hiddens2), 
            nn.ReLU(),
            nn.Dropout(drop_prob2),
            nn.Linear(num_hiddens2, 10)
            )
    
    for param in net.parameters():
        nn.init.normal_(param, mean=0, std=0.01)
    
    综上

    对于训练误差较低但是泛化误差依然较高,二者相差较大的过拟合

    对于模型无法达到一个较低的误差的欠拟合

    • 增加新特征,可以考虑加入进特征组合、高次特征,来增大假设空间

    • 添加多项式特征,这个在机器学习算法里面用的很普遍,例如将线性模型通过添加二次项或者三次项使模型泛化能力更强

    • 减少正则化参数,正则化的目的是用来防止过拟合的,但是模型出现了欠拟合,则需要减少正则化参数

    • 使用非线性模型,比如核SVM 、决策树、深度学习等模型

    • 调整模型的容量(capacity),通俗地,模型的容量是指其拟合各种函数的能力

    • 容量低的模型可能很难拟合训练集;使用集成学习方法,如Bagging ,将多个弱学习器Bagging

    让对手感动,让对手恐惧
  • 相关阅读:
    @黎耀天 , 你的 论文 里 是不是 说 电场 磁场 对 光 有 作用 ?
    《如何彻底搞懂狭义相对论里的“光速不变”?》 回复
    宇宙际理论该如何理解?
    无工质 飞行装置
    《李秉泉的心里话》 回复
    《与K歌之王的交流》 回复
    我对 李炳铁 和 李秉泉 两位老师 的 学术成果 的 评价
    知乎 : 为什么美国中小学生学的数学比我们简单,美国人却还能做出超级牛的东西?
    @bnllm 快把 0, 1, 1, 无穷, 无穷, 阶乘, 指数 玩坏了
    让 我们 来 测量 普朗克常数 和 万有引力常数
  • 原文地址:https://www.cnblogs.com/RokoBasilisk/p/12381119.html
Copyright © 2020-2023  润新知