• 【学习笔记】Python 小练习—数据挖掘


    用python按照教程尝试做一下数据分析,小试牛刀一下~~

    数据导入和可视化

    通常,数据分析的第一步由获取数据和导入数据到我们的工作环境组成。我们可以使用以下的Python代码简单的下载数据:

    数据集以CSV(逗号分割值)的格式存储。CSV文件可以很方便的转化并把其中的信息存储为适合的数据结构。此数据集有5列(译者注:原文是行,但这里应该是列的意思),前4列包含着特征值,最后一列代表着样本类型。CSV文件很容易被numpy类库的genfromtxt方法解析:

    我们也可以查看我们有多少种样本类型以及它们的名字:

    当我们处理新数据的时候,一项很重要的任务是尝试去理解数据包含的信息以及它的组织结构。可视化可以灵活生动的展示数据,帮助我们深入理解数据。

    使用pylab类库(matplotlib的接口)的plotting方法可以建一个二维散点图让我们在两个维度上分析数据集的两个特征值:

    上面那段代码使用第一和第三维度(花萼的长和宽),结果如下图所示:

     

    在上图中有150个点,不同的颜色代表不同的类型;蓝色点代表山鸢尾,红色点代表变色鸢尾,绿色点代表维吉尼亚鸢尾。

    另一种常用的查看数据的方法是分特性绘制直方图。在本例中,既然数据被分为三类,我们就可以比较每一类的分布特征。下面这个代码可以绘制数据中每一类型的第一个特性(花萼的长度):

    结果如下图:

    根据上图的直方图,我们可以根据数据类型区分理解数据的特征。例如,我们可以观察到,山鸢尾的平均花萼长度小于维吉尼亚鸢尾。


    分类

    分类是一个数据挖掘方法,用于把一个数据集中的样本数据分配给各个目标类。实现这个方法的模块叫做分类器。使用分类器需要以下两步:训练和分类。训练是指采集已知其特定类归属的数据并基于这些数据创建分类器。 分类是指使用通过这些已知数据建立的分类器来处理未知的数据,以判断未知数据的分类情况。

    Sklearn类库包含很多分类器的实现,本章我们将会使用高斯朴素贝叶斯来分析我们在第一章载入的鸢尾花数据,包含山鸢尾、变色鸢尾和维吉尼亚鸢尾。最后我们把字符串数组转型成整型数据:

    现在我们已经做好实例化和训练分类器的准备了:

    分类器可以由predict方法完成,并且只要输出一个样例就可以很简单的检测:

    上例中predicted类包含了一个正确的样本(山鸢尾),但是在广泛的样本上评估分类器并且使用非训练环节的数据测试是很重要的。最终我们通过从源数据集中随机抽取样本把数据分为训练集和测试集。我们将会使用训练集的数据来训练分类器,并使用测试集的数据来测试分类器。train_test_split方法正是实现此功能的:

    数据集被分一分为二,测试集被指定为源数据的40%(命名为test_size),我们用它反复训练我们的分类器并输出精确度:

    在此例中,我们的精确度为93%。一个分类器的精确度是通过正确分类样本的数量除以总样本的数量得出的。也就是说,它意味着我们正确预测的比例。

    另一个估计分类器表现的工具叫做混淆矩阵。在此矩阵中每列代表一个预测类的实例,每行代表一个实际类的实例。使用它可以很容易的计算和打印矩阵:

    在这个混淆矩阵中我们可以看到所有山鸢尾和维吉尼亚鸢尾都被正确的分类了,但是实际上应该是26个的变色鸢尾,系统却预测其中三个是维吉尼亚鸢尾。如果我们牢记所有正确的猜测都在表格的对角线上,那么观测表格的错误就很容易了,即对角线以外的非零值。

    可以展示分类器性能的完整报告的方法也是很好用的:

    以下是该报告使用到的方法总结:

    Precision:正确预测的比例

    Recall(或者叫真阳性率):正确识别的比例

    F1-Score:precision和recall的调和平均数

    以上仅仅只是给出用于支撑测试分类的数据量。当然,分割数据、减少用于训练的样本数以及评估结果等操作都依赖于配对的训练集和测试集的随机选择。如果要切实评估一个分类器并与其它的分类器作比较的话,我们需要使用一个更加精确的评估模型,例如Cross Validation。该模型背后的思想很简单:多次将数据分为不同的训练集和测试集,最终分类器评估选取多次预测的平均值。这次,sklearn为我们提供了运行模型的方法:

    如上所见,输出是每次模型迭代产生的精确度的数组。我们可以很容易计算出平均精确度:

    聚类

    通常我们的数据上不会有标签告诉我们它的样本类型;我们需要分析数据,把数据按照它们的相似度标准分成不同的群组,群组(或者群集)指的是相似样本的集合。这种分析被称为无监督数据分析。最著名的聚类工具之一叫做k-means算法,如下所示:

    from sklearn.cluster import KMeans
    kmeans = KMeans(k=3, init='random') # initialization
    kmeans.fit(data) # actual execution

    上述片段运行k-measn算法并把数据分为三个群集(参数k所指定的)。现在我们可以使用模型把每一个样本分配到三个群集中:

    我们可以估计群集的结果,与使用完整性得分和同质性得分计算而得的标签作比较:

    当大部分数据点属于一个给定的类并且属于同一个群集,那么完整性得分就趋向于1。当所有群集都几乎只包含某个单一类的数据点时同质性得分就趋向于1.

    我们可以把集群可视化并和带有真实标签的做可视化比较:

    结果如下图所示:

    观察此图我们可以看到,底部左侧的群集可以被k-means完全识别,然而顶部的两个群集有部分识别错误。

    回归

    回归是一个用于预测变量之间函数关系调查的方法。例如,我们有两个变量,一个被认为是解释,一个被认为是依赖。我们希望使用模型描述两者的关系。当这种关系是一条线的时候就称为线性回归。

    为了应用线性回归我们建立一个由上所述的综合数据集:

    我们可以使用在sklear.linear_model模块中发现的LinearRegression模型。该模型可以通过计算每个数据点到拟合线的垂直差的平方和,找到平方和最小的最佳拟合线。使用方法和我们之前遇到的实现sklearn的模型类似:

    from sklearn.linear_model import LinearRegression
    linreg = LinearRegression()
    linreg.fit(x,y)

    我们可以通过把拟合线和实际数据点画在同一幅图上来评估结果:

    图见下:

    观察该图我们可以得出结论:拟合线从数据点中心穿过,并可以确定是增长的趋势。

    我们还可以使用均方误差来量化模型和原始数据的拟合度:

    该指标度量了预期的拟合线和真实数据之间的距离平方。当拟合线很完美时该值为0。

    相关

    我们通过研究相关性来理解成对的变量之间是否相关,相关性的强弱。此类分析帮助我们精确定位被依赖的重要变量。最好的相关方法是皮尔逊积矩相关系数。它是由两个变量的协方差除以它们的标准差的乘积计算而来。我们将鸢尾花数据集的变量两两组合计算出其系数如下所示:

    from numpy import corrcoef
    corr = corrcoef(data.T) # .T gives the transpose
    print corr
    [[ 1.         -0.10936925  0.87175416  0.81795363]
    [-0.10936925  1.         -0.4205161  -0.35654409]
    [ 0.87175416 -0.4205161   1.          0.9627571 ]
    [ 0.81795363 -0.35654409  0.9627571   1.        ]]

    corrcoef方法通过输入行为变量列为观察值的矩阵,计算返回相关系数的对称矩阵。该矩阵的每个元素代表着两个变量的相关性。

    当值一起增长时相关性为正。当一个值减少而另一个只增加时相关性为负。特别说明,1代表完美的正相关,0代表不相关,-1代表完美的负相关。

    当变量数增长时我们可以使用伪彩色点很方便的可视化相关矩阵:

    结果如下:

     

    看图右侧的彩条,我们可以把颜色点关联到数值上。在本例中,红色被关联为最高的正相关,我们可以看出我们数据集的最强相关是“花瓣宽度”和“花瓣长度”这两个变量。

     

  • 相关阅读:
    mysql索引
    struts升级2.3.12到2.5.13
    springboot使用servlet
    springboot拦截器
    开发复制内容
    Linux常用命令
    Eclipse中文语言包安装和设置中文
    eclipse编写代码所遇到的问题
    permission denied (publickey)问题的解决和向github添加ssh key
    工具
  • 原文地址:https://www.cnblogs.com/liyangqiu/p/6540541.html
Copyright © 2020-2023  润新知