• python大数据挖掘系列之淘宝商城数据预处理实战


    数据清洗:

    所谓的数据清洗,就是把一些异常的、缺失的数据处理掉,处理掉不一定是说删除,而是说通过某些方法将这个值补充上去,数据清洗目的在于为了让我们数据的可靠,因为脏数据会对数据分析产生影响。
    拿到数据后,我们进行数据清洗分为两方面:

    1. 缺失值发现:可以查找
    2. 异常值发现:画图分析
    • 缺失值:在下载数据、搜集数据的时候刚好就缺失。可以通过查找的方法去发现。
    • 异常值:不一定就是异常,可能就是客观存在,但是这个值对于总的数据来说是一个就比较特殊点。可以通过画散点图发现。

    这两方面的处理方法如下:

    1. 缺失值处理:均值/中位数插补、固定值、临近插补、回归分析、插值法(拉格朗日插值,牛顿插值)
    2. 异常值处理:视为缺失,平均值修正,不处理。

    方法解释:

    • 均值/中位数插补:在缺失位置插入一个总数据的均值或者中位数。
    • 固定值::在缺失位置插入一个固定值
    • 临近插补:看这个缺失位置附近的值是什么,就把附近的某一个值插到缺失位置,这类应用场景应用于物以类聚的场景
    • 回归分析:等日后用上的时候在研究。
    • 插值法:此算法复杂,暂未研究,等日后用上的时候在研究。
    • 视为缺失:可以看成缺失值,然后通过缺失值来处理。
    • 平均值修正:通过平均值来替代这个值
    • 不处理:不处理这个值

    开始分析:

    表结构介绍:

    淘宝商品表结构如下:

    • title:商品名称
    • link:商品URL
    • price:商品价钱
    • comment:商品评论数量
    mysql> desc taob;
    +---------+-------------+------+-----+---------+-------+
    | Field   | Type        | Null | Key | Default | Extra |
    +---------+-------------+------+-----+---------+-------+
    | title   | varchar(50) | YES  |     | NULL    |       |
    | link    | varchar(60) | NO   | PRI | NULL    |       |
    | price   | int(30)     | YES  |     | NULL    |       |
    | comment | int(30)     | YES  |     | NULL    |       |
    +---------+-------------+------+-----+---------+-------+

    对于上面四个字段,比较好处理的就是价钱和评论数,比如价钱是0(没有采集到的数据),可以通过刚才平均值或者中位数来填充,对于异常值,比如某个评论10W+,那么也可以采用平均值修正。

    Python环境介绍:

    依赖于pymysql,numpy,pandas,matplotlib,请自己先安装。可以参考我上篇博文:http://www.cnblogs.com/liaojiafa/p/6239262.html

    拿代码说话:
    1. 获取数据
    conn = pymysql.connect(host='192.168.56.4',user='root',passwd='123456',db='csdn',charset='utf8')
    sql='select * from taob'
    data = pandas.read_sql(sql,conn)
    print(data.head(1))
    #数据样例如下,和mysql字段相匹配的:
    0  买2袋减2元 印尼进口菲那菲娜虾味木薯片油炸大龙虾片零食品400g   
    
                                                  link  price  comment  
    0  https://item.taobao.com/item.htm?id=44350560220     50     2577  

    可以看看数据的中位数和均值:

    print(data.describe())
                price        comment
    count  9616.00000    9616.000000
    mean     64.49324     562.239601   # 均值
    std     176.10901    6078.909643
    min       0.00000       0.000000
    25%      20.00000      16.000000
    50%      36.00000      58.000000   # 中位数
    75%      66.00000     205.000000
    max    7940.00000  454037.000000
    1. 对price列的数据清洗
    • 缺失值的处理:

    我们先了解下这样的判断方法:

    a={1:'a',2:'b'}
    print([a[1]=='a'])

    上述代码打印结果必然是True,小括号([])相当于if判断了,返回的值为布尔值。

    下面对price为0的值(也就是缺失值)进行处理。

    data['price'][(data['price']==0)]=None   # 对price的缺失值统统赋值为None,方便下面处理
    data['price'][(data['price']==0)]=64   # 也可以这样写,直接把price的缺失值设置为price的平均数64.那么下面的for循环设置price的缺失值就不需要写。

    对上面这段代码拆分来看:

    • (data['price']==0) 判断data['price']列中哪行price的值等于0,等于的返回True,不等于返回False
    • data['price'][(data['price']==0)] 这语句就是一下子把所有price=0的给取出来了 ,然后哪行的price等于0就 赋值为None
    for i in data.columns:   # 遍历data的每列
        for j in range(len(data)):   # 遍历data的每一行了。
            if data[i].isnull()[j]: # i在这是一维(列),data[i]等于把这一列的值取出来了,j在这里是二维(行),i相当于XY轴的X轴,j相当于XY轴的Y轴,data[i].isnull是判断整列的某一个值是nan那么就返回True,data[i].isnull[j]是逐行逐行的判断是否为nan了,是的话返回True从而进行下面代码块的处理。
                data[i][j]=64   # 缺失值设置为均值
    • 异常值处理:

    1.找到异常值:通过画散点图(横轴:价格,纵轴:评论数)
    我们这里的话要选取评论数,价钱。通常的方法就是说通过遍历每一行的数据,取每一行中的price值,但是呢这个方法效率低下。
    对此我们可以采用转置方法,把price列转置为一行,这样就能够快速取到这价钱的数据,还有评论数。
    下面请看代码:

    dataT=data.T # 转置下数据
    prices = dataT.values[2]     # 取第3行数据
    comments = dataT.values[3]   # 取第4行数据
    pylab.plot(prices,comments,'o')    # 画散点图
    pylab.xlabel('prices')
    pylab.ylabel('comments')
    pylab.title(" The Good's price and comments")
    pylab.show()

    处理异常数据,我这里定义的异常数据就是评论数超过20W,价格大于2000,请看代码:

    line = len(data.values)   # 取行数
    col = len(data.values[0])   # 取列数
    davalues = data.values    #取data的所有值
    for i in range(0,line):    # 遍历行数
        for j in range(0,col):   #遍历列数
            if davalues[i][3]>200000:    #判断评论数
                #print('comments==i,j',i,j,davalues[i][j])
                davalues[i][j] = 562   # 评论数取平均值
             
            if davalues[i][2]>2000:
                davalues[i][j] =  64   # 价钱取平均值
    
    
    prices2=davalues.T[2]
    comments2=davalues.T[3]
    pylab.plot(prices2,comments2,'or')
    pylab.xlabel('prices')
    pylab.ylabel('comments')
    pylab.title(" The Good's price and comments")
    pylab.show()

    此时,我们看图:

    image

    显然我们已经对评论数超过20W,价格大于2000的数据处理了,但是呢上图显示的还是不够漂亮,因为异常点与正常点的差距太大了,导致正常点与正常点之间的间隔非常小,小到黏在一块了,所以我们还需要在处理下,把评论数超过2000,价格大于300的处理掉,这样的话,正常点就能够很好的展现在图上,代码如下:

    line = len(data.values)   # 取行数
    col = len(data.values[0])   # 取列数
    davalues = data.values    #取data的所有值
    for i in range(0,line):    # 遍历行数
        for j in range(0,col):   #遍历列数
            if davalues[i][3]>2000:    #判断评论数,===主要修改这行
                #print('comments==i,j',i,j,davalues[i][j])
                davalues[i][j] = 562   # 评论数取平均值
             
            if davalues[i][2]>300:    # ====主要修改这行
                davalues[i][j] =  64   # 价钱取平均值
    prices2=davalues.T[2]
    comments2=davalues.T[3]
    pylab.plot(prices2,comments2,'or')
    pylab.xlabel('prices')
    pylab.ylabel('comments')
    pylab.title(" The Good's price and comments")
    pylab.show()

    full example:

    import pymysql
    import numpy
    import pandas
    from  matplotlib import  pylab
    
    #缺失值处理
    #======
    data['price'][(data['price']==0)]=64  # 对price的缺失值统统赋值为平均数
    
    # 异常值处理:
    # 1.找到异常值:通过画散点图(横轴:价格,纵轴:评论数)
    # 我们这里的话要选取评论数,价钱。通常的方法就是说通过遍历每一行的数据,取每一行中的price值,但是呢这个方法效率低下,
    # 对此我们可以采用转置方法,把price列转置为一行,这样就能够快速取到这价钱的数据,还有评论数
    # 处理异常数据,我这里定义的异常数据就是评论数超过20W,价格大于2000
    conn = pymysql.connect(host='192.168.56.4',user='root',passwd='123456',db='csdn',charset='utf8')
    sql='select * from taob'
    data = pandas.read_sql(sql,conn)
    
    line = len(data.values)   # 取行数
    col = len(data.values[0])   # 取列数
    davalues = data.values    #取data的所有值
    for i in range(0,line):    # 遍历行数
        for j in range(0,col):   #遍历列数
            if davalues[i][3]>2000:    #判断评论数
                #print('comments==i,j',i,j,davalues[i][j])
                davalues[i][j] = 562   # 评论数取平均值
    
            if davalues[i][2]>300:
                davalues[i][j] =  64   # 价钱取平均值
    
    
    prices2=davalues.T[2]
    comments2=davalues.T[3]
    pylab.plot(prices2,comments2,'or')
    pylab.xlabel('prices')
    pylab.ylabel('comments')
    pylab.title(" The Good's price and comments")
    pylab.show()

    生成的图如下:
    image
    这张图就很直观的看出,价钱和评论数的关系了,价钱在100以内的,评论数也比较多,价钱越高,评论数相对来说越少。

    数据集成与数据离散化

    1. 数据集成:不同来源的数据集合在一起,需要注意格式保持一致。
      for example:
      我这里有2个表数据,淘宝与京东的,淘宝的表就如上面所述的一样,标题,url,价钱,评论,那么京东的下标为2的列也必须是价钱,只有数据格式保持一致,才能分析。

    2. 数据离散化:处理连续数据较好的方法。离散化就是指数据不集中,分散了。
      for example:
      一个班的考试成绩就是从0-100分之间,这个数据是在100以内连续的,那么我们对这个数据分析的时候就可以这么做,把连续的数据或者近似连续的数据整合在一个点附近,比如0-60分为及格,60-80为良好.....

    商品数据分布分析实战

    我们在这里要分析商品数据的分布,看评论数与价钱的在哪个数量段的分布最多。
    首先我们需要计算出价钱和评论的最值,其次在计算最值之间的极差,最后计算组距(极差/组数,组数自己根据情况定义)。下面请看代码:

    # 数据分布:
    # 1 求最值
    # 2 计算极差
    # 3 组距: 极差/组数
    da2=davalues.T
    # print('=======')
    # print(data['price'])
    pricemax = da2[2].max()
    pricemin = da2[2].min()
    
    commentmax = da2[3].max()
    commentmin = da2[3].min()
    # 极差
    pricerg =  pricemax - pricemin
    commentrg = commentmax -commentmin
    # 组距
    pricedst = pricerg/10
    commentdst = pricerg/10
    
    # 绘制直方图
    # numpy.arrange(最小值,最大值,组距)
    # 价钱直方图
    pricesty = numpy.arange(pricemin,pricemax,pricedst)
    pylab.hist(da2[2],pricesty)
    pylab.show()
    
    # 评论直方图
    commentty = numpy.arange(commentmin,commentmax,commentdst)
    pylab.hist(da2[3],pricesty)
    pylab.show()

    评论直方图如下:
    image

    结论:

    从上图中我们可以看出,评论数最多的集中在100元以内的商品,评论数也间接的说明了购买数,因为购买后才能够评论。
    所以可以根据这个来直方图来给商品定价。
    价钱直方图如下:
    image

    结论:

    从上图中我们可以看出,商品价钱最多的集中在50元以内的商品

    code full example:

    #!/usr/bin/env python
    # __author__:Leo
    import pymysql
    import numpy
    import pandas
    from  matplotlib import  pylab
    
    conn = pymysql.connect(host='192.168.56.4',user='root',passwd='123456',db='csdn',charset='utf8')
    sql='select * from taob'
    data = pandas.read_sql(sql,conn)
    
    # 缺失值处理
    data['price'][(data['price']==0)]=64  # 对price的缺失值统统赋值为price的平均数
    
    # 异常值处理:
    # 1.找到异常值:通过画散点图(横轴:价格,纵轴:评论数)
    # 我们这里的话要选取评论数,价钱。通常的方法就是说通过遍历每一行的数据,取每一行中的price值,但是呢这个方法效率低下,
    # 对此我们可以采用转置方法,把price列转置为一行,这样就能够快速取到这价钱的数据,还有评论数
    
    
    
    line = len(data.values)   # 取行数
    col = len(data.values[0])   # 取列数
    davalues = data.values    #取data的所有值
    for i in range(0,line):    # 遍历行数
        for j in range(0,col):   #遍历列数
            if davalues[i][3]>2000:    #判断评论数
                #print('comments==i,j',i,j,davalues[i][j])
                davalues[i][j] = 562   # 评论数取平均值
    
            if davalues[i][2]>300:
                davalues[i][j] =  64   # 价钱取平均值
    
    
    prices2=davalues.T[2]
    comments2=davalues.T[3]
    pylab.plot(prices2,comments2,'or')
    pylab.xlabel('prices')
    pylab.ylabel('comments')
    pylab.title(" The Good's price and comments")
    pylab.show()
    
    # 数据分布:
    # 1 求最值
    # 2 计算极差
    # 3 组距: 极差/组数
    da2=davalues.T
    # print('=======')
    # print(data['price'])
    pricemax = da2[2].max()
    pricemin = da2[2].min()
    
    commentmax = da2[3].max()
    commentmin = da2[3].min()
    # 极差
    pricerg =  pricemax - pricemin
    commentrg = commentmax -commentmin
    # 组距
    pricedst = pricerg/10
    commentdst = pricerg/10
    
    # 绘制直方图
    # numpy.arrange(最小值,最大值,组距)
    # 价钱直方图
    pricesty = numpy.arange(pricemin,pricemax,pricedst)
    pylab.hist(da2[2],pricesty)
    pylab.show()
    
    # 评论直方图
    commentty = numpy.arange(commentmin,commentmax,commentdst)
    pylab.hist(da2[3],pricesty)
    pylab.show()
  • 相关阅读:
    笔记12:maven项目管理工具
    笔记11:Oracle基础
    笔记10:springMVC
    笔记9:spring
    笔记8:mybatis
    Bad Sequence
    Optimal Currency Exchange
    Two Small Strings
    Equalizing by Division (easy version)&&(hard version)
    Codeforce 1096:D. Easy Problem(DP,思维)
  • 原文地址:https://www.cnblogs.com/kkdn/p/8946050.html
Copyright © 2020-2023  润新知