• 面试题集锦-02


    1.Bagging和Boosting的区别

    https://www.cnblogs.com/earendil/p/8872001.html
    Bagging和Boosting的区别:
    1)样本选择上:

    Bagging:训练集是在原始集中有放回选取的,从原始集中选出的各轮训练集之间是独立的。
    Boosting:每一轮的训练集不变,只是训练集中每个样例在分类器中的权重发生变化。而权值是根据上一轮的分类结果进行调整。

    2)样例权重:

    Bagging:使用均匀取样,每个样例的权重相等
    Boosting:根据错误率不断调整样例的权值,错误率越大则权重越大。

    3)预测函数:

    Bagging:所有预测函数的权重相等。
    Boosting:每个弱分类器都有相应的权重,对于分类误差小的分类器会有更大的权重。

    4)并行计算:
    Bagging:各个预测函数可以并行生成
    https://i.cnblogs.com/
    Boosting:各个预测函数只能顺序生成,因为后一个模型参数需要前一轮模型的结果。

    5)这个很重要面试被问到了
    为什么说bagging是减少variance,而boosting是减少bias?

    2. batch_size 对训练的影响

    batch_size 过小:
    1. 甚至为1时,产生震荡,横冲直撞,难以收敛(每次修正时只以该样本的梯度方向进行修正,难以收敛)
    2. 机器利用率不高
    在合理范围内增大batch_size:
    1. 内存利用率提高了,大矩阵乘法的并行化效率提高。
    2. 跑完一次 epoch(全数据集)所需的迭代次数减少,对于相同数据量的处理速度进一步加快。
    3. 在一定范围内,一般来说 Batch_Size 越大,其确定的下降方向越准,引起训练震荡越小。

    盲目增大 Batch_Size 有何坏处?
    1. 内存利用率提高了,但是内存容量可能撑不住了。
    2. 跑完一次 epoch(全数据集)所需的迭代次数减少,要想达到相同的精度,其所花费的时间大大增加了,从而对参数的修正也就显得更加缓慢。
    3. Batch_Size 增大到一定程度,其确定的下降方向已经基本不再变化。

    如果有一天我们淹没在茫茫人海中庸碌一生,那一定是我们没有努力活得丰盛
  • 相关阅读:
    计算机网络基础 汇总
    指针与数组
    卡特兰数
    Leetcode Sort Colors
    Leetcode Group Shifted Strings
    Leetcode Summary Ranges
    Leetcode Count Primes
    Leetcode Reverse Words in a String II
    Leetcode Reverse Words in a String
    Leetcode Rotate Array
  • 原文地址:https://www.cnblogs.com/yeran/p/10517608.html
Copyright © 2020-2023  润新知