总结1:
留一法其实就是样本量较小时使用的交叉验证,算是普通交叉验证的极端情况,即将所有N个样本分成N份,再进行交叉验证。
总结2:
k fold,就是把training data 折成k份(k<=N)进行交叉验证,k = N 即留一(LOOCV)。
留一法交叉验证:假设有N个样本,将每一个样本作为测试样本,其它N-1个样本作为训练样本。这样得到N个分类器,N个测试结果。用这N个结果的平均值来衡量模型的性能。
普通交叉验证:我理解的是K倍交叉验证(k-fold cross validation):将所有样本分成K份,一般每份样本的数量相等或相差不多。取一份作为测试样本,剩余K-1份作为训练样本。这个过程重复K次,最后的平均测试结果可以衡量模型的性能。
另外:建议题主善用搜索,google搜索“留一法交叉验证”,第一个结果就有非常详细的介绍。附链接:交叉验证(Cross-validation) --zz_ousman_新浪博客作者:Jason Gu 链接:https://www.zhihu.com/question/23561944/answer/24952652