• Spark实战电影点评系统(二)


    二、通过DataFrame实战电影点评系统

      DataFrameAPI是从Spark 1.3开始就有的,它是一种以RDD为基础的分布式无类型数据集,它的出现大幅度降低了普通Spark用户的学习门槛。

      DataFrame类似于传统数据库中的二维表格。DataFrame与RDD的主要区别在于,前者带有schema元信息,即DataFrame表示的二维表数据集的每一列都带有名称和类型。这使得Spark SQL得以解析到具体数据的结构信息,从而对DataFrame中的数据源以及对DataFrame的操作进行了非常有效的优化,从而大幅提升了运行效率。

      现在我们通过实现几个功能来了解DataFrame的具体用法。先来看第一个功能:通过DataFrame实现某部电影观看者中男性和女性不同年龄分别有多少人。

        println("========================================")
        println("功能一:通过DataFrame实现某部电影观看者中男性和女性不同年龄人数")
        // 首先把User的数据格式化,即在RDD的基础上增加数据的元数据信息
        val schemaForUsers = StructType(
            "UserID::Gender::Age::OccupationID::Zip-code".split("::")
            .map(column => StructField(column,StringType,true))
        )
        // 然后把我们的每一条数据变成以Row为单位的数据
        val usersRDDRows = usersRDD.map(_.split("::")).map(
            line => Row(line(0).trim(),line(1).trim(),line(2).trim(),line(3).trim(),line(4).trim())    
        )
        // 使用SparkSession的createDataFrame方法,结合Row和StructType的元数据信息 基于RDD创建DataFrame,
        // 这时RDD就有了元数据信息的描述
        val usersDataFrame = spark.createDataFrame(usersRDDRows, schemaForUsers)
        // 也可以对StructType调用add方法来对不同的StructField赋予不同的类型
        val schemaforratings = StructType(
            "UserID::MovieID".split("::")
            .map(column => StructField(column,StringType,true)))
            .add("Rating",DoubleType,true)
            .add("Timestamp",StringType,true)
         val ratingsRDDRows = ratingsRDD.map(_.split("::")).map(
             line => Row(line(0).trim(),line(1).trim(),line(2).trim().toDouble,line(3).trim())    
         )
         val ratingsDataFrame = spark.createDataFrame(ratingsRDDRows, schemaforratings)
         // 接着构建movies的DataFrame
         val schemaformovies = StructType(
             "MovieID::Title::Genres".split("::")
             .map(column => StructField(column,StringType,true))
         )
         val moviesRDDRows = moviesRDD.map(_.split("::")).map(line => Row(line(0).trim(),line(1).trim(),line(2).trim()))
         val moviesDataFrame = spark.createDataFrame(moviesRDDRows, schemaformovies)
        // 这里能够直接通过列名MovieID为1193过滤出这部电影,这些列名都是在上面指定的
        /* 
         * Join的时候直接指定基于UserID进行Join,这相对于原生的RDD操作而言更加方便快捷
         * 直接通过元数据信息中的Gender和Age进行数据的筛选
         * 直接通过元数据信息中的Gender和Age进行数据的groupBy操作
         * 基于groupBy分组信息进行count统计操作,并显示出分组统计后的前10条信息
         */
        ratingsDataFrame.filter(s"MovieID==1193")
            .join(usersDataFrame,"UserID")
            .select("Gender", "Age")
            .groupBy("Gender", "Age")
            .count().show(10)
    

       

      上面案例中的代码无论是从思路上,还是从结构上都和SQL语句十分类似,下面通过写SQL语句的方式来实现上面的案例。

        println("========================================")
        println("功能二:用LocalTempView实现某部电影观看者中不同性别不同年龄分别有多少人")
        // 既然使用SQL语句,那么表肯定是要有的,所以需要先把DataFrame注册为临时表
        ratingsDataFrame.createTempView("ratings")
        usersDataFrame.createTempView("users")
        // 然后写SQL语句,直接使用SparkSession的sql方法执行SQL语句即可。
        val sql_local = "SELECT Gender,Age,count(*) from users u join ratings as r on u.UserID=r.UserID where MovieID=1193 group by Gender,Age"
        spark.sql(sql_local).show(10)
    

       

      这篇博文主要来自《Spark大数据商业实战三部曲》这本书里面的第一章,内容有删减,还有本书的一些代码的实验结果。随书附赠的代码库链接为:https://github.com/duanzhihua/code-of-spark-big-data-business-trilogy

      

  • 相关阅读:
    jq幻灯片2013-8-31
    jq设置样式
    KindEditor编辑器常用操作
    深入理解JavaScript模拟私有成员
    后台常见报错处理和注意问题(二)
    从项目上一个子查询扩展学习开来:mysql的查询、子查询及连接查询
    在MySQL中使用子查询和标量子查询的基本用法
    HQL语句中数据类型转换,及hibernate中createQuery执行hql报错
    SQL中的cast()函数
    模糊搜索:concat各种函数详解、like操作符、通配符
  • 原文地址:https://www.cnblogs.com/xiaoyh/p/10856322.html
Copyright © 2020-2023  润新知