• 机器学习实战基础(三十一):决策树(四) 实例:泰坦尼克号幸存者的预测


    泰坦尼克号幸存者的预测 

    泰坦尼克号的沉没是世界上最严重的海难事故之一,今天我们通过分类树模型来预测一下哪些人可能成为幸存者。数据集来着https://www.kaggle.com/c/titanic,数据集会随着代码一起提供给大家,大家可以在下载页面拿到,或者到群中询问。数据集包含两个csv格式文件,data为我们接下来要使用的数据,test为kaggle提供的测试集。
    1. 导入所需要的库

    import pandas as pd
    from sklearn.tree import DecisionTreeClassifier
    from sklearn.model_selection import train_test_split
    from sklearn.model_selection import GridSearchCV
    from sklearn.model_selection import cross_val_score
    import matplotlib.pyplot as plt

    2. 导入数据集,探索数据

    data = pd.read_csv(r"C:worklearnbettermicro-classweek 1 DTdatadata.csv",index_col 
    = 0)
     
    data.head()
     
    data.info()

    3. 对数据集进行预处理

    #删除缺失值过多的列,和观察判断来说和预测的y没有关系的列
    data.drop(["Cabin","Name","Ticket"],inplace=True,axis=1)
     
    #处理缺失值,对缺失值较多的列进行填补,有一些特征只确实一两个值,可以采取直接删除记录的方法
    data["Age"] = data["Age"].fillna(data["Age"].mean())
    data = data.dropna()
     
    #将分类变量转换为数值型变量
     
    #将二分类变量转换为数值型变量
    #astype能够将一个pandas对象转换为某种类型,和apply(int(x))不同,astype可以将文本类转换为数字,用这
    个方式可以很便捷地将二分类特征转换为0~1
    data["Sex"] = (data["Sex"]== "male").astype("int")
     
    #将三分类变量转换为数值型变量
    labels = data["Embarked"].unique().tolist()
    data["Embarked"] = data["Embarked"].apply(lambda x: labels.index(x))
     
    #查看处理后的数据集
    data.head()

    4. 提取标签和特征矩阵,分测试集和训练集

    X = data.iloc[:,data.columns != "Survived"]
    y = data.iloc[:,data.columns == "Survived"]
     
    from sklearn.model_selection import train_test_split
    Xtrain, Xtest, Ytrain, Ytest = train_test_split(X,y,test_size=0.3)
     
    #修正测试集和训练集的索引
    for i in [Xtrain, Xtest, Ytrain, Ytest]:
        i.index = range(i.shape[0])
        
    #查看分好的训练集和测试集
    Xtrain.head()

    5. 导入模型,粗略跑一下查看结果

    clf = DecisionTreeClassifier(random_state=25)
    clf = clf.fit(Xtrain, Ytrain)
    score_ = clf.score(Xtest, Ytest)
     
    score_
     
    score = cross_val_score(clf,X,y,cv=10).mean()
     
    score

    6. 在不同max_depth下观察模型的拟合状况

    tr = []
    te = []
    for i in range(10):
        clf = DecisionTreeClassifier(random_state=25
                                     ,max_depth=i+1
                                     ,criterion="entropy"
                                    )
        clf = clf.fit(Xtrain, Ytrain)
        score_tr = clf.score(Xtrain,Ytrain)
        score_te = cross_val_score(clf,X,y,cv=10).mean()
        tr.append(score_tr)
        te.append(score_te)
    print(max(te))
    plt.plot(range(1,11),tr,color="red",label="train")
    plt.plot(range(1,11),te,color="blue",label="test")
    plt.xticks(range(1,11))
    plt.legend()
    plt.show()
     
    #这里为什么使用“entropy”?因为我们注意到,在最大深度=3的时候,模型拟合不足,在训练集和测试集上的表现接
    近,但却都不是非常理想,只能够达到83%左右,所以我们要使用entropy。

    7. 用网格搜索调整参数

    import numpy as np
    gini_thresholds = np.linspace(0,0.5,20)
     
    parameters = {'splitter':('best','random')
                  ,'criterion':("gini","entropy")
                  ,"max_depth":[*range(1,10)]
                  ,'min_samples_leaf':[*range(1,50,5)]
                  ,'min_impurity_decrease':[*np.linspace(0,0.5,20)]
                 }
     
    clf = DecisionTreeClassifier(random_state=25)
    GS = GridSearchCV(clf, parameters, cv=10)
    GS.fit(Xtrain,Ytrain)
     
    GS.best_params_
     
    GS.best_score_
  • 相关阅读:
    第七章 第一月:开始 第二周:链接建设(2)
    基础篇 第四节 项目进度计划编辑 之 日历
    VSS2005 使用说明
    删除存储过程
    基础篇 第四节 项目进度计划编辑 之 任务关联性设定
    转载: input 的css技巧
    js: js判断回车键
    一个简单邮件发送类
    转载: php发送邮件原理
    css 小经验: 重构css的优化与技巧
  • 原文地址:https://www.cnblogs.com/qiu-hua/p/13031168.html
Copyright © 2020-2023  润新知