• 管道模型(Pipeline)


    1.使用make_blobs来生成数据集,然后对数据集进行预处理

    #导入数据集生成器
    from sklearn.datasets import make_blobs
    #导入数据集拆分工具
    from sklearn.model_selection import train_test_split
    #导入预处理工具
    from sklearn.preprocessing import StandardScaler
    #导入多层感知器神经网络
    from sklearn.neural_network import MLPClassifier
    #导入画图工具
    import matplotlib.pyplot as plt
    
    #生成样本数量200,分类为2,标准差为5的数据集
    X,y = make_blobs(n_samples=200,centers=2,cluster_std=5)
    #将数据集拆分为训练集和测试集
    X_train,X_test,y_train,y_test = train_test_split(X,y,random_state=38)
    #对数据进行预处理
    scaler = StandardScaler().fit(X_train)
    X_train_scaled = scaler.transform(X_train)
    X_test_scaled = scaler.transform(X_test)
    #将处理后的数据形态进行打印
    print('
    
    
    ')
    print('代码运行结果')
    print('====================================
    ')
    #将处理后的数据形态进行打印
    print('训练数据集:{}'.format(X_train_scaled.shape),' 标签形态:{}'.format(X_test_scaled.shape))
    print('
    ====================================')
    print('
    
    
    ')
    
    代码运行结果
    ====================================
    训练数据集:(150, 2)  标签形态:(50, 2)
    ====================================
    #训练原始数据集
    plt.scatter(X_train[:,0],X_train[:,1])
    #经过预处理的训练集
    plt.scatter(X_train_scaled[:,0],X_train_scaled[:,1],marker='^',edgecolor='k')
    #添加图题
    plt.title('training set & scaled training set')
    #显示图片
    plt.show()
    

    • 这里可以看到,StandardScaler将训练集的数据变得更加"聚拢"
    #导入网格搜索
    from sklearn.model_selection import GridSearchCV
    #设定网格搜索的模型参数字典
    params = {'hidden_layer_sizes':[(50,),(100,),(100,100)],'alpha':[0.0001,0.01,0.1]}
    #建立网格搜索模型
    grid = GridSearchCV(MLPClassifier(max_iter=1600,random_state=38),param_grid=params,cv=3,iid=False)
    #拟合数据
    grid.fit(X_train_scaled,y_train)
    #将结果进行打印
    print('
    
    
    ')
    print('代码运行结果')
    print('====================================
    ')
    print('模型最佳得分:{:.2f}'.format(grid.best_score_),' 模型最佳参数:{}'.format(grid.best_params_))
    print('
    ====================================')
    print('
    
    
    ')
    
    代码运行结果
    ====================================
    模型最佳得分:0.81  模型最佳参数:{'alpha': 0.0001, 'hidden_layer_sizes': (50,)}
    ====================================
    #打印模型在测试集中的得分
    print('
    
    
    ')
    print('代码运行结果')
    print('====================================
    ')
    print('测试集得分:{}'.format(grid.score(X_test_scaled,y_test)))
    print('
    ====================================')
    print('
    
    
    ')
    
    代码运行结果
    ====================================
    测试集得分:0.82
    ====================================
    • 可以看到这种做法得到的模型分数很高,但是仔细想想这种做法是错误的,我们在交叉验证中,将训练集又拆分成了training fold和validation fold,但用StandardScaler进行预处理的时候,是使用training fold 和 validation fold 一起进行的拟合.这样一来,交叉验证的得分就是不准确的.

    2.使用管道模型(Pipeline)

    #导入管道模型
    from sklearn.pipeline import Pipeline
    #建立包含预处理和神经网络的管道模型
    pipeline = Pipeline([('scaler',StandardScaler()),('mlp',MLPClassifier(max_iter=1600,random_state=38))])
    #用管道模型对训练集进行拟合
    pipeline.fit(X_train,y_train)
    #打印管道模型的分数
    print('使用管道模型的MLP模型评分:{:.2f}'.format(pipeline.score(X_test,y_test)))
    
    使用管道模型的MLP模型评分:0.82
    • 我们在管道模型Pipeline中使用了两个方法,一个是用来进行数据预处理的StandardScaler.另一个是最大迭代数为1600的MLP多层感知器神经网络.

    3.使用管道模型进行网格搜索

    GridSearchCV拆分的训练集和验证集,不是train_test_split拆分的训练集和测试集,而是在train_test_split拆分的训练集上再进行拆分,所得到的的结果

    #设置参数字典--------(mlp__是用于指定pipeline中的mlp算法)
    params = {'mlp__hidden_layer_sizes':[(50,),(100,),(100,100)],'mlp__alpha':[0.0001,0.001,0.01,0.1]}
    #建立包含预处理和神经网络的管道模型
    pipeline = Pipeline([('scaler',StandardScaler()),('mlp',MLPClassifier(max_iter=1600,random_state=38))])
    #将管道模型加入网格搜索
    grid = GridSearchCV(pipeline,param_grid=params,cv=3,iid=False)
    #对训练集进行拟合
    grid.fit(X_train,y_train)
    #打印模型交叉验证分数.最佳参数和测试集得分
    print('
    
    
    ')
    print('代码运行结果')
    print('====================================
    ')
    print('交叉验证最高分:{:.2f}'.format(grid.best_score_))
    print('模型最有参数:{}'.format(grid.best_params_))
    print('测试集得分:{}'.format(grid.score(X_test,y_test)))
    print('
    ====================================')
    print('
    
    
    ')
    
    代码运行结果
    ====================================
    交叉验证最高分:0.80
    模型最有参数:{'mlp__alpha': 0.0001, 'mlp__hidden_layer_sizes': (50,)}
    测试集得分:0.82
    ====================================
    • 在hidden_layer_sizes和alpha前面都添加了mlp__这样一个前缀,这样做是为了pipeline中有多个算法,我们需要让pipeline知道这个参数是传给哪一个算法的.
    #打印管道模型中的步骤
    print('
    
    
    ')
    print('代码运行结果')
    print('====================================
    ')
    print(pipeline.steps)
    print('
    ====================================')
    print('
    
    
    ')
    
    代码运行结果
    ====================================
    [('scaler', StandardScaler(copy=True, with_mean=True, with_std=True)), ('mlp', MLPClassifier(activation='relu', alpha=0.0001, batch_size='auto', beta_1=0.9,
           beta_2=0.999, early_stopping=False, epsilon=1e-08,
           hidden_layer_sizes=(100,), learning_rate='constant',
           learning_rate_init=0.001, max_iter=1600, momentum=0.9,
           n_iter_no_change=10, nesterovs_momentum=True, power_t=0.5,
           random_state=38, shuffle=True, solver='adam', tol=0.0001,
           validation_fraction=0.1, verbose=False, warm_start=False))]
    ====================================

    总结 : 

      除了能够将更多的算法进行整合,实现代码的简洁之外,管道模型还可以避免我们在预处理过程中,使用不当的方式对训练集和验证集进行错误的预处理.通过使用管道模型,可以在网格搜索每次拆分训练集与验证集之前,重新对训练集和验证集进行预处理操作,避免了模型过拟合的情况.

    文章引自 : 《深入浅出python机器学习》

  • 相关阅读:
    Business Objects 基础
    常用的bw基础知识
    SAP BW传输请求操作步骤
    FI/CO 财务基础知识
    SAP财务常用数据源概览
    HANA 和 SAP NetWeaver BW
    Request.QueryString中文乱码
    完全备份类型
    SQL Server备份属于I/O密集型操作
    SQL Server 通过发布订阅 实现数据库同步
  • 原文地址:https://www.cnblogs.com/weijiazheng/p/10971771.html
Copyright © 2020-2023  润新知