• 机器学习笔记——模型调参利器 GridSearchCV(网格搜索)参数的说明


    GridSearchCV,它存在的意义就是自动调参,只要把参数输进去,就能给出最优化的结果和参数。但是这个方法适合于小数据集,一旦数据的量级上去了,很难得出结果。这个时候就是需要动脑筋了。数据量比较大的时候可以使用一个快速调优的方法——坐标下降。它其实是一种贪心算法:拿当前对模型影响最大的参数调优,直到最优化;再拿下一个影响最大的参数调优,如此下去,直到所有的参数调整完毕。这个方法的缺点就是可能会调到局部最优而不是全局最优,但是省时间省力,巨大的优势面前,还是试一试吧,后续可以再拿bagging再优化。

    通常算法不够好,需要调试参数时必不可少。比如SVM的惩罚因子C,核函数kernel,gamma参数等,对于不同的数据使用不同的参数,结果效果可能差1-5个点,sklearn为我们提供专门调试参数的函数grid_search。

    参数说明

    class sklearn.model_selection.GridSearchCV(estimator, param_grid, scoring=None, fit_params=None, n_jobs=1, iid=True, refit=True, cv=None, verbose=0, pre_dispatch=‘2*n_jobs’, error_score=’raise’, return_train_score=’warn’)

    (1)       estimator

    选择使用的分类器,并且传入除需要确定最佳的参数之外的其他参数。每一个分类器都需要一个scoring参数,或者score方法:estimator=RandomForestClassifier(min_samples_split=100,min_samples_leaf=20,max_depth=8,max_features='sqrt',random_state=10),

    (2)       param_grid

    需要最优化的参数的取值,值为字典或者列表,例如:param_grid =param_test1,param_test1 = {'n_estimators':range(10,71,10)}。

    (3)       scoring=None

    模型评价标准,默认None,这时需要使用score函数;或者如scoring='roc_auc',根据所选模型不同,评价准则不同。字符串(函数名),或是可调用对象,需要其函数签名形如:scorer(estimator, X, y);如果是None,则使用estimator的误差估计函数。

    (4)       fit_params=None

    (5)       n_jobs=1

    n_jobs: 并行数,int:个数,-1:跟CPU核数一致, 1:默认值

    (6)       iid=True

    iid:默认True,为True时,默认为各个样本fold概率分布一致,误差估计为所有样本之和,而非各个fold的平均。

    (7)       refit=True

    默认为True,程序将会以交叉验证训练集得到的最佳参数,重新对所有可用的训练集与开发集进行,作为最终用于性能评估的最佳模型参数。即在搜索参数结束后,用最佳参数结果再次fit一遍全部数据集。

    (8)        cv=None

    交叉验证参数,默认None,使用三折交叉验证。指定fold数量,默认为3,也可以是yield训练/测试数据的生成器。

    (9)       verbose=0scoring=None

    verbose:日志冗长度,int:冗长度,0:不输出训练过程,1:偶尔输出,>1:对每个子模型都输出。

    (10)   pre_dispatch=‘2*n_jobs’

    指定总共分发的并行任务数。当n_jobs大于1时,数据将在每个运行点进行复制,这可能导致OOM,而设置pre_dispatch参数,则可以预先划分总共的job数量,使数据最多被复制pre_dispatch次

    (11)   error_score=’raise’

    (12)   return_train_score=’warn’

    如果“False”,cv_results_属性将不包括训练分数

    回到sklearn里面的GridSearchCV,GridSearchCV用于系统地遍历多种参数组合,通过交叉验证确定最佳效果参数。

    目的

    通过训练集的训练求出所需模型的最佳参数。

    代码简单实现

    import pandas as pd
    from sklearn.model_selection import GridSearchCV,train_test_split
    from sklearn.linear_model import LogisticRegression
    from sklearn.metrics import precision_score,recall_score,f1_score,roc_auc_score,roc_curve
    import matplotlib.pyplot as plt
    import warnings
    warnings.filterwarnings('ignore')#处理警告
    data = pd.read_excel('文件路径')
    data = pd.DataFrame(data)
    X = data.iloc[:,:-1]
    Y = data.iloc[:,-1]
    trainx,testx,trainy,testy = train_test_split(X,Y,test_size=1/3,random_state=3)#random_state相当于随机种子
    
    best_ting = {
        'max_iter':[20,40,60,100],
        'C':[0.01,0.1,1,10]
    }
    # 使用测试集对模型进行验证,并利用GridSearchCV技术对逻辑回归模型进行超参调优,
    #网格搜索最优超参数
    best_g = GridSearchCV(LogisticRegression(),best_ting,cv=5)
    best_g.fit(trainx,trainy)
    print(best_g.best_params_)#输出最优参数
    
    best_model = LogisticRegression(max_iter=20,C=10)
    best_model.fit(trainx,trainy)
    best_H = best_model.predict(testx)
    best_yH = best_model.predict_proba(testx)
    # 并输出测试数据集的精确率、召回率、F1值、AUC值,画出ROC曲线
    print('精准率:',precision_score(testy,best_H))
    print('召回率:',recall_score(testy,best_H))
    print('F1率:',f1_score(testy,best_H))
    print('AUC:',roc_auc_score(testy,best_yH[:,-1]))
    fpr,tpr,theta = roc_curve(testy,best_yH[:,-1])
    print('fpr=
    ',fpr)
    print('tpr=
    ',tpr)
    print('theta=
    ',theta)
    #画出ROC曲线
    plt.plot(fpr,tpr)
    plt.show()
    

      

     关于sklearn.metrics.roc_curve()

    主要用来计算ROC面积的

    ''
    sklearn.metrics.roc_curve(y_true, y_score, pos_label=None, sample_weight=None, drop_intermediate=True)
    输入:其中y_true为真实标签,y_score为预测概率,或称为置信度。pos_label为正类样本标签,一般为1。
    输出:fpr(假正率、1-特效性)、tpr(真正率、灵敏度)、thresholds(阈值)
    假正率 = 预测为正类的负样本/所有负类样本,越小越好。
    真正率 = 预测为正类的正样本/所有正类样本,越大越好。
    '''

    #这个还有些不理解,在学习中..

    修改于2019-07-1219:28:34

    仝渊涛

    加油!
  • 相关阅读:
    求转置矩阵问题
    喷水装置
    面试之谈
    迭代任意8种数据类型数组
    Session那点事
    随机验证码
    正则表达式:网页爬虫
    模拟上传服务端
    Properties集合的练习
    用递归算法对指定目录的深度遍历
  • 原文地址:https://www.cnblogs.com/1994tj/p/11176766.html
Copyright © 2020-2023  润新知