• 《torch.optim 优化算法理解之 optim.Adam()》


    torch.optim 优化算法理解之 optim.Adam()_Python_KGzhang 的博客 - CSDN 博客

    torch.optim 是一个实现了多种优化算法的包,大多数通用的方法都已支持,提供了丰富的接口调用,未来更多精炼的优化算法也将整合进来。
    为了使用 torch.optim,需先构造一个优化器对象 Optimizer,用来保存当前的状态,并能够根据计算得到的梯度来更新参数。
    要构建一个优化器 optimizer,你必须给它一个可进行迭代优化的包含了所有参数(所有的参数必须是变量 s)的列表。 然后,您可以指定程序优化特定的选项,例如学习速率,权重衰减等。

    optimizer = optim.SGD(model.parameters(), lr = 0.01, momentum=0.9)
    optimizer = optim.Adam([var1, var2], lr = 0.0001)
    self.optimizer_D_B = torch.optim.Adam(self.netD_B.parameters(), lr=opt.lr, betas=(opt.beta1, 0.999))

    Optimizer 还支持指定每个参数选项。 只需传递一个可迭代的 dict 来替换先前可迭代的 Variable。dict 中的每一项都可以定义为一个单独的参数组,参数组用一个 params 键来包含属于它的参数列表。其他键应该与优化器接受的关键字参数相匹配,才能用作此组的优化选项。

    optim.SGD([
                    {'params': model.base.parameters()},
                    {'params': model.classifier.parameters(), 'lr': 1e-3}
                ], lr=1e-2, momentum=0.9)

    如上,model.base.parameters() 将使用 1e-2 的学习率,model.classifier.parameters() 将使用 1e-3 的学习率。0.9 的 momentum 作用于所有的 parameters。
    优化步骤:
    所有的优化器 Optimizer 都实现了 step() 方法来对所有的参数进行更新,它有两种调用方法:

    optimizer.step()

    这是大多数优化器都支持的简化版本,使用如下的 backward() 方法来计算梯度的时候会调用它。

    for input, target in dataset:
        optimizer.zero_grad()
        output = model(input)
        loss = loss_fn(output, target)
        loss.backward()
        optimizer.step()
    optimizer.step(closure)

    一些优化算法,如共轭梯度和 LBFGS 需要重新评估目标函数多次,所以你必须传递一个 closure 以重新计算模型。 closure 必须清除梯度,计算并返回损失

    for input, target in dataset:
        def closure():
            optimizer.zero_grad()
            output = model(input)
            loss = loss_fn(output, target)
            loss.backward()
            return loss
        optimizer.step(closure)

    Adam 算法:

    adam 算法来源:Adam: A Method for Stochastic Optimization

    Adam(Adaptive Moment Estimation) 本质上是带有动量项的 RMSprop,它利用梯度的一阶矩估计和二阶矩估计动态调整每个参数的学习率。它的优点主要在于经过偏置校正后,每一次迭代学习率都有个确定范围,使得参数比较平稳。其公式如下:

    其中,前两个公式分别是对梯度的一阶矩估计和二阶矩估计,可以看作是对期望 E|gt|,E|gt^2 | 的估计;
    公式 3,4 是对一阶二阶矩估计的校正,这样可以近似为对期望的无偏估计。可以看出,直接对梯度的矩估计对内存没有额外的要求,而且可以根据梯度进行动态调整。最后一项前面部分是对学习率 n 形成的一个动态约束,而且有明确的范围。

    class torch.optim.Adam(params, lr=0.001, betas=(0.9, 0.999), eps=1e-08, weight_decay=0)

    参数:

    params(iterable):可用于迭代优化的参数或者定义参数组的dicts。
    lr (float, optional) :学习率(默认: 1e-3)
    betas (Tuple[float, float], optional):用于计算梯度的平均和平方的系数(默认: (0.9, 0.999))
    eps (float, optional):为了提高数值稳定性而添加到分母的一个项(默认: 1e-8)
    weight_decay (float, optional):权重衰减(如L2惩罚)(默认: 0)
    step(closure=None)函数:执行单一的优化步骤
    closure (callable, optional):用于重新评估模型并返回损失的一个闭包

    torch.optim.adam 源码:

    import math
    from .optimizer import Optimizer
    
    class Adam(Optimizer):
        def __init__(self, params, lr=1e-3, betas=(0.9, 0.999), eps=1e-8,weight_decay=0):
            defaults = dict(lr=lr, betas=betas, eps=eps,weight_decay=weight_decay)
            super(Adam, self).__init__(params, defaults)
    
        def step(self, closure=None):
            loss = None
            if closure is not None:
                loss = closure()
    
            for group in self.param_groups:
                for p in group['params']:
                    if p.grad is None:
                        continue
                    grad = p.grad.data
                    state = self.state[p]
    
                    # State initialization
                    if len(state) == 0:
                        state['step'] = 0
                        # Exponential moving average of gradient values
                        state['exp_avg'] = grad.new().resize_as_(grad).zero_()
                        # Exponential moving average of squared gradient values
                        state['exp_avg_sq'] = grad.new().resize_as_(grad).zero_()
    
                    exp_avg, exp_avg_sq = state['exp_avg'], state['exp_avg_sq']
                    beta1, beta2 = group['betas']
    
                    state['step'] += 1
    
                    if group['weight_decay'] != 0:
                        grad = grad.add(group['weight_decay'], p.data)
    
                    # Decay the first and second moment running average coefficient
                    exp_avg.mul_(beta1).add_(1 - beta1, grad)
                    exp_avg_sq.mul_(beta2).addcmul_(1 - beta2, grad, grad)
    
                    denom = exp_avg_sq.sqrt().add_(group['eps'])
    
                    bias_correction1 = 1 - beta1 ** state['step']
                    bias_correction2 = 1 - beta2 ** state['step']
                    step_size = group['lr'] * math.sqrt(bias_correction2) / bias_correction1
    
                    p.data.addcdiv_(-step_size, exp_avg, denom)
    
            return loss

    Adam 的特点有:
    1、结合了 Adagrad 善于处理稀疏梯度(更新越慢、学习速率越大)和 RMSprop 善于处理非平稳目标(二阶动量累积加权)的优点;
    2、对内存需求较小; --> Why?
    3、为不同的参数计算不同的自适应学习率;
    4、也适用于大多非凸优化 - 适用于大数据集和高维空间。

  • 相关阅读:
    kafka与Rocketmq的区别【转】
    k8s故障解决干货文档链接
    利用local nginx搭建k8s-1.17.4高可用kubernetes集群
    生产gitlab还原步骤
    jenkins备份和还原
    ASP.NET Core3.1使用IdentityServer4中间件系列随笔(二):创建API项目,配置IdentityServer保护API资源
    使用Feign出现404错误问题
    高并发系统限流-漏桶算法和令牌桶算法
    框架-springmvc源码分析(二)
    框架-springmvc源码分析(一)
  • 原文地址:https://www.cnblogs.com/cx2016/p/12869890.html
Copyright © 2020-2023  润新知