• spark学习进度22(Scala编程初级实践-2)


    spark-shell 交互式编程:

    请到本教程官网的“下载专区”的“数据集”中下载 chapter5-data1.txt,该数据集包含 了某大学计算机系的成绩,数据格式如下所示:

    Tom,DataBase,80
    Tom,Algorithm,50
    Tom,DataStructure,60
    Jim,DataBase,90
    Jim,Algorithm,60
    Jim,DataStructure,80

    请根据给定的实验数据,在 spark-shell 中通过编程来计算以下内容:

    (1)该系总共有多少学生; 

    (2)该系共开设来多少门课程;

    (3)Tom 同学的总成绩平均分是多少;

    (4)求每名同学的选修的课程门数;

    (5)该系 DataBase 课程共有多少人选修;

    (6)各门课程的平均分是多少;

    (7)使用累加器计算共有多少人选了 DataBase 这门课。

    编写独立应用程序实现数据去重

    对于两个输入文件 A 和 B,编写 Spark 独立应用程序,对两个文件进行合并,并剔除其 中重复的内容,得到一个新文件 C。下面是输入文件和输出文件的一个样例,供参考。

    输入文件 A 的样例如下:
    20170101 x
    20170102 y
    20170103 x
    20170104 y
    20170105 z
    20170106 z
    输入文件 B 的样例如下:
    20170101 y
    20170102 y
    20170103 x
    20170104 z
    20170105 y
    根据输入的文件 A 和 B 合并得到的输出文件 C 的样例如下:
    20170101 x
    20170101 y
    20170102 y
    20170103 x
    20170104 y
    20170104 z
    20170105 y
    20170105 z
    20170106 z
    package cn.itcast.spark.SY4
    import java.io.{BufferedWriter, FileOutputStream, OutputStreamWriter}
    
    import org.apache.spark.rdd.RDD
    import org.apache.spark.sql.catalyst.InternalRow
    import org.apache.spark.sql.catalyst.encoders.RowEncoder
    import org.apache.spark.sql.types.{IntegerType, StringType, StructField, StructType}
    import org.apache.spark.sql.{DataFrame, Dataset, Row, SparkSession}
    import org.apache.spark.{SparkConf, SparkContext, sql}
    import org.junit.Test
    /**
      * @Author 带上我快跑
      * @Data 2021/1/15 14:12
      * @菩-萨-说-我-写-的-都-对@
      */
    class shiyan {
      @Test
      def test(): Unit ={
        val conf=new SparkConf().setMaster("local[6]").setAppName("xlf_union")
        val sc=new SparkContext(conf)
        val ra=sc.textFile("dataset/a.txt")
        val rb=sc.textFile("dataset/b.txt")
        val rc=ra.union(rb)
          .distinct()
          .map(item => (item.split(" ")(0),item.split(" ")(1)))
          .sortBy(item =>(item._1,item._2))
          .collect()
        val file = "dataset/c.txt"
        val writer = new BufferedWriter(new OutputStreamWriter(new FileOutputStream(file)))
        for(x<- rc)
        {
          println(x)
          writer.write(x+"
    ")
        }
        writer.close()
      }
    
    }

    编写独立应用程序实现求平均值问题

    每个输入文件表示班级学生某个学科的成绩,每行内容由两个字段组成,第一个是学生 名字,第二个是学生的成绩;编写 Spark 独立应用程序求出所有学生的平均成绩,并输出到 一个新文件中。下面是输入文件和输出文件的一个样例,供参考。

    Algorithm 成绩:
    小明 92
    小红 87
    小新 82
    小丽 90
    Database 成绩:
    小明 95
    小红 81
    小新 89
    小丽 85
    Python 成绩:
    小明 82
    小红 83
    小新 94
    小丽 91
    平均成绩如下:
     (小红,83.67)
     (小新,88.33)
     (小明,89.67)
     (小丽,88.67)
    package cn.itcast.spark.SY4
    import java.io.{BufferedWriter, FileOutputStream, OutputStreamWriter}
    
    import org.apache.spark.rdd.RDD
    import org.apache.spark.sql.catalyst.InternalRow
    import org.apache.spark.sql.catalyst.encoders.RowEncoder
    import org.apache.spark.sql.types.{IntegerType, StringType, StructField, StructType}
    import org.apache.spark.sql.{DataFrame, Dataset, Row, SparkSession}
    import org.apache.spark.{SparkConf, SparkContext, sql}
    import org.junit.Test
    /**
      * @Author 带上我快跑
      * @Data 2021/1/15 15:23
      * @菩-萨-说-我-写-的-都-对@
      */
    class shiyan2 {
      @Test
      def test2(): Unit ={
        val conf=new SparkConf().setMaster("local[6]").setAppName("xlf_avg")
        val sc=new SparkContext(conf)
        val ra=sc.textFile("dataset/Algorithm.txt")
        val rb=sc.textFile("dataset/Database.txt")
        val rc=sc.textFile("dataset/Python.txt")
        val out=ra.union(rb)
          .union(rc)
          .map(item => (item.split(" ")(0),item.split(" ")(1).toDouble))
          .mapValues(v => (v,1))
          .reduceByKey( (x,y) =>(x._1+y._1,x._2+y._2) )
          .mapValues(v => (v._1/v._2).formatted("%.2f") )
          .collect()
        val file = "dataset/out.txt"
        val writer = new BufferedWriter(new OutputStreamWriter(new FileOutputStream(file)))
        for(x<- out)
        {
          println(x)
          writer.write(x+"
    ")
        }
        writer.close()
      }
    }

  • 相关阅读:
    TCP 的那些事儿(下)
    如何获取(GET)一杯咖啡——星巴克REST案例分析
    前端必读:浏览器内部工作原理
    伟大的程序员是怎样炼成的?
    从用户行为打造活动交互设计闭环——2014年世界杯竞猜活动设计总结
    技术普及帖:你刚才在淘宝上买了一件东西
    什么是互联网思维?给你最全面的解释
    程序员生存定律-打造属于自己的稀缺性
    技术人员如何去面试?
    13幅逻辑图,领略杜克大学的经典思维
  • 原文地址:https://www.cnblogs.com/dazhi151/p/14269258.html
Copyright © 2020-2023  润新知