• 4.K均值算法应用


    一、课堂练习

    from sklearn.cluster import KMeans
    import matplotlib.pyplot as plt
    import numpy as np
    from sklearn.datasets import load_sample_image #导入图片数据
    import PIL  #引入PIL,但是下载不下来,如果没有的话,载入图片会报错
    import sys
    china=load_sample_image("china.jpg")
    plt.imshow(china) #显示图片
    plt.show() #显示
    sys.getsizeof(china) #看一个变量占的内存大小
    china.size
    import matplotlib.image as img img.imsave("D://china.jpg",china)
    image
    =china[::3,::3] #把图片的尺寸变小,每隔三个取一个 X=china.reshape(-1,3) #任意行,3列 线性, n_colors=64 #(255*255*255) #把255*255*255这么多颜色聚类成64 model=KMeans(n_colors) model.fit(X) predict=model.predict(X) #训练后预测 colors=model.cluster_centers_ #聚类中心,64类,64种颜色,3是rgb
    #predict是每一个像素的类别,colors是具体的值,427行,[[640x3]] new_img=colors[predict].reshape(china.shape) sys.getsizeof(new_img) #现在占内存128

    plt.rcParams['font.sans-serif']=['SimHei'] #用来正常显示中文标签 plt.figure(figsize=(8,8)) plt.subplot(221) plt.title("原图") plt.imshow(china) plt.subplot(222) plt.title("64种颜色") plt.imshow(new_img.astype(np.uint8))#转化为整型 plt.subplot(223) plt.title("1/3的像素") plt.imshow(new_img[::3,::3].astype(np.uint8)) #进行压缩 内存还是128,但是丢掉了很多像素


    二、作业

    1. 应用K-means算法进行图片压缩

    读取一张图片

    观察图片文件大小,占内存大小,图片数据结构,线性化

    用kmeans对图片像素颜色进行聚类

    获取每个像素的颜色类别,每个类别的颜色

    压缩图片生成:以聚类中收替代原像素颜色,还原为二维

    观察压缩图片的文件大小,占内存大小

    import matplotlib.pyplot as plt
    import matplotlib.image as mpimg
    import  sys
    from sklearn.cluster import KMeans
    import numpy as np
    Img_w=mpimg.imread('./机器学习/William.jpg') #读取图片
    plt.imshow(Img_w)
    plt.show()
    print("图片大小为:",Img_w.size)
    print("图片内存大小为:",sys.getsizeof(Img_w))#占内存大小为128
    print("图片数据结构为:",Img_w)
    print("图片线性化后:",Img_w.reshape(-1,3))
    Img_w.shape
    X_w=Img_w.reshape(-1,3)
    w_model=KMeans(n_clusters=64) #构建模型,将255*255*255个颜色聚类成64个颜色
    w_model.fit(X_w) #训练reshape后成线性的数据
    w_predict=w_model.predict(X_w) #预测
    colors_center=w_model.cluster_centers_
    #w_predict是每一个像素的类别,colors_center是颜色具体的值,427行,[[640x3]]
    new_w=colors_center[w_predict].reshape(Img_w.shape)
    print("图片大小为:",new_w.size)
    print("压缩后图片内存大小为:",sys.getsizeof(new_w))#占内存大小为128
    print("图片大小为:",new_w[::6,::6].size)
    print("压缩后图片内存大小为:",sys.getsizeof(new_w[::6,::6]))#占内存大小为128
    mpimg.imsave("D://new_w.jpg",new_w.astype(np.uint8))
    
    plt.rcParams['font.sans-serif']=['SimHei'] #用来正常显示中文标签
    plt.figure(figsize=(8,8)) #自定义一个画布
    plt.subplot(221) #是2x2的格子上第一块图形
    plt.title("原图")
    plt.imshow(Img_w)#转化为整型
    plt.subplot(222) #是2x2的格子上第一块图形
    plt.title("64种颜色")
    plt.imshow(new_w.astype(np.uint8))#转化为整型
    plt.subplot(223) #是2x2的格子上第2块图形
    plt.title("1/6的像素")
    plt.imshow(new_w[::6,::6].astype(np.uint8)) #进行压缩 内存还是128,但是丢掉了很多像素

    对一张图片来说,最重要的就是像素(宽x高)和颜色(rgb),所以shape(70,70,3)是像素70x70,每个像素点又和颜色有关。

      

     


    2. 观察学习与生活中可以用K均值解决的问题。

    从数据-模型训练-测试-预测完整地完成一个应用案例。

    这个案例会作为课程成果之一,单独进行评分。

    数据:数据是找正在上信息系统的同学要的,是关于航空的数据,包括用户的信息、客户乘机信息、客户积分信息

    研究内容:将乘客进行分类,如重要保持客户、重要发展客户、重要挽留客户、一般客户等等。

    步骤:

    读取数据->抽取相关属性数据->进行数据探索与预处理->建模和训练->可视化->预测

    入会时间越久说明,一则说明乘客是忠实客户,需要重点保持联系等等、二则如果入会时间久但是其飞行次数和总公里等等不多,则说明客户可能是需要重要挽留客户。

    入会时间不久,但是客户的飞行次数多,飞行总公里多,飞行平均间隔短,则可能说明客户是重要发展对象。

    飞行次数和飞行总公里还有飞行平均间隔都可以突显乘客属于哪一类客户,而平均折扣与航空公司利益有关。

    有些乘客可能飞行次数不多,但是他们的飞行总公里多,这样需要的钱会更多,折扣力度也会不同。

    所以我选择了以上几个属性,并对其进行了数据预处理等操作。

    import pandas as pd
    import numpy as np
    air=pd.read_csv("./机器学习/air_data.csv",engine='python',nrows=10000)#读取文件,抽取10000条数据
    air.columns #得到其所有属性
    df_air=air[['FFP_DATE','LOAD_TIME','FFP_TIER','FLIGHT_COUNT','SEG_KM_SUM','AVG_INTERVAL','avg_discount']]#从中找出自己需要的属性
    df_air.isnull().sum()#查看是否有缺值  False则没有缺失值
    df_air.describe(include="all") #统计性描述
    df_air.loc[:,'LOAD_TIME']=pd.to_datetime(df_air.loc[:,'LOAD_TIME'])
    df_air.loc[:,'FFP_DATE']=pd.to_datetime(df_air.loc[:,'FFP_DATE'])
    df_air["入会时间"]=(df_air.loc[:,'LOAD_TIME']-df_air.loc[:,'FFP_DATE']).astype(np.int64)/(60*60*24*10**9)
    df_air=df_air.rename(columns={"FFP_TIER":"会员等级","FLIGHT_COUNT":"飞行次数","SEG_KM_SUM":"飞行总公里","AVG_INTERVAL":"飞行平均间隔","avg_discount":"平均折扣"})
    df_air=df_air[["入会时间","会员等级","飞行次数","飞行总公里","飞行平均间隔","平均折扣"]]
    df_air.describe()

    数据预处理完成以后,可以进行模型的构建和训练,选择聚类中心为5,按更加严谨的来说,是需要去测试究竟哪个聚类中心数是最好的。

    分为5个聚类中心后,统计各个类别的数目,看看每一类用户有多少人。

    from sklearn.cluster import KMeans
    X_a=df_air.iloc[:,:]
    model_a=KMeans(n_clusters=5)
    model_a.fit(X_a)
    Y_predicta=model_a.predict(X_a)
    s = pd.Series(['客户群1','客户群2','客户群3','客户群4','客户群5'], index=[0,1,2,3,4]) #创建一个序列s
    r1 = pd.Series(model_a.labels_).value_counts() #统计各个类别的数目
    r2 = pd.DataFrame(model_a.cluster_centers_) #找出聚类中心
    r = pd.concat([s,r1,r2], axis = 1) #横向连接(0是纵向),得到聚类中心对应的类别下的数目
    r.columns =[u'聚类名称'] +[u'聚类个数'] + list(df_air.columns) #重命名表头
    print(r)

    可视化能够更好的帮助我们看模型构建训练完以后数据的分布。

    import matplotlib.pyplot as plt
    plt.rcParams['font.sans-serif']=['SimHei'] #用来正常显示中文标签
    plt.scatter(X_a.iloc[:,2],X_a.iloc[:,3],Y_predicta,c=Y_predicta,cmap="rainbow")
    plt.xlabel("飞行次数")
    plt.ylabel("飞行总公里")
    plt.show()

    最后进行预测,假如给一个客户的信息,需要分到这5类中的一类客户。

    # ["入会时间","会员等级","飞行次数","飞行总公里","飞行平均间隔","平均折扣"]
    test=pd.DataFrame(np.array([[2000,5,240,304567,3.23333,0.92222]]))
    model_a.predict(test.iloc[:,:])

    借鉴资料: https://blog.csdn.net/a857553315/article/details/79177524

  • 相关阅读:
    Linux初始root密码设置
    ubuntu上的附件-终端和用快捷键ctrl+alt+f1 有啥区别
    分区工具PQ
    饮品DIY
    烘焙学习
    育儿所悟、所感、所想
    Linux netstat命令详解
    sharepoint环境安装
    python os模块
    java泛型
  • 原文地址:https://www.cnblogs.com/cyxxixi/p/12723730.html
Copyright © 2020-2023  润新知