• Caffe的solver参数


    Solver.prototxt文件

    Solver.prototxt文件

    net: "models/bvlc_alexnet/train_val.prototxt" //网络地址
    test_iter: 1000 //test_iter是测试时样本的迭代次数,因此测试时 总的数据量=迭代次数(test_iter)*批数量(batch_size)
    test_interval: 1000 //测试间隔,每迭代500次就测试一次
    base_lr: 0.01 //基础学习率,是所有层的学习率base_lr
    lr_policy: "step" //学习率下降策略,让学习率在训练过程中发生变换
    gamma: 0.1 //
    stepsize: 100000
    display: 20
    max_iter: 450000
    momentum: 0.9
    weight_decay: 0.0005
    snapshot: 10000 //每迭代10000次就保存一次模型和状态
    snapshot_prefix: "models/bvlc_alexnet/caffe_alexnet_train" //caffemodel和
    solver_mode: GPU
    type:SGD
    (1)学习率改变策略
    lr_policy可以设置为下面这些值,相应的学习率的计算为:
    - fixed:   保持base_lr不变.
    - step:    如果设置为step,则还需要设置一个stepsize, 当前学习率=base_lr * gamma ^ (floor(iter / stepsize)), 其中iter表示当前的迭代次数
    - exp:    当前学习率=base_lr * gamma ^ iter, iter为当前迭代次数
    - inv:   如果设置为inv,还需要设置一个power, 当前学习率=base_lr * (1 + gamma * iter) ^ (- power)
    - multistep: 如果设置为multistep,则还需要设置一个stepvalue。这个参数和step很相似,step是均匀等间隔变化,而multistep则是根据stepvalue值变化
    - poly:    学习率进行多项式误差, 返回 base_lr (1 - iter/max_iter) ^ (power)
    - sigmoid:  学习率进行sigmod衰减,返回 base_lr ( 1/(1 + exp(-gamma * (iter - stepsize))))
    (2)优化方法
    type:SGD //默认值,不写type则默认为SGD
    type:AdaDelta
    type:AdaGrad
    type:Adam
    type:Nesterov
    type:RMSProp
      

    
    

      

  • 相关阅读:
    MongoDB的安全写入GetLastError
    mysql更新字段部分内容,连接条件过滤
    markdown 语法练习(样式输出)
    markdown 语法练习
    数据科学家访谈录 摘录(二)
    使用docker容器,创建镜像
    docker contioner报错:locale.Error: unsupported locale setting
    psql: FATAL: database "" does not exist 解决步骤
    ubuntu下docker 安装、使用mysql
    ubuntu使用crontab启动定时任务
  • 原文地址:https://www.cnblogs.com/codeDog123/p/7170705.html
Copyright © 2020-2023  润新知