• Spark学习笔记1——第一个Spark程序:单词数统计


    Spark学习笔记1——第一个Spark程序:单词数统计

    笔记摘抄自 [美] Holden Karau 等著的《Spark快速大数据分析》

    添加依赖

    通过 Maven 添加 Spark-core_2.10 的依赖

    Spark core libraries.png

    程序

    找了一篇注释比较清楚的博客代码[1],一次运行通过

    
    import scala.Tuple2;
    import org.apache.spark.SparkConf;
    import org.apache.spark.api.java.JavaPairRDD;
    import org.apache.spark.api.java.JavaRDD;
    import org.apache.spark.api.java.JavaSparkContext;
    import org.apache.spark.api.java.function.FlatMapFunction;
    import org.apache.spark.api.java.function.Function2;
    import org.apache.spark.api.java.function.PairFunction;
    
    import java.util.Arrays;
    import java.util.Iterator;
    import java.util.List;
    import java.util.regex.Pattern;
    
    public final class WordCount {
        private static final Pattern SPACE = Pattern.compile(" ");
    
        public static void main(String[] args) throws Exception {
    
            if (args.length < 1) {
                System.err.println("Usage: JavaWordCount <file>");
                System.exit(1);
            }
    
            /**
             * 对于所有的spark程序所言,要进行所有的操作,首先要创建一个spark上下文。
             * 在创建上下文的过程中,程序会向集群申请资源及构建相应的运行环境。
             * 设置spark应用程序名称
             * 创建的 sarpkContext 唯一需要的参数就是 sparkConf,它是一组 K-V 属性对。
             */
            SparkConf sparkConf = new SparkConf().setAppName("JavaWordCount");
            JavaSparkContext ctx = new JavaSparkContext(sparkConf);
    
            /**
             * 利用textFile接口从文件系统中读入指定的文件,返回一个RDD实例对象。
             * RDD的初始创建都是由SparkContext来负责的,将内存中的集合或者外部文件系统作为输入源。
             * RDD:弹性分布式数据集,即一个 RDD 代表一个被分区的只读数据集。一个 RDD 的生成只有两种途径,
             * 一是来自于内存集合和外部存储系统,另一种是通过转换操作来自于其他 RDD,比如 Map、Filter、Join,等等。
             * textFile()方法可将本地文件或HDFS文件转换成RDD,读取本地文件需要各节点上都存在,或者通过网络共享该文件
             *读取一行
             */
            JavaRDD<String> lines = ctx.textFile(args[0], 1);
            /**
             *
             * new FlatMapFunction<String, String>两个string分别代表输入和输出类型
             * Override的call方法需要自己实现一个转换的方法,并返回一个Iterable的结构
             *
             * flatmap属于一类非常常用的spark函数,简单的说作用就是将一条rdd数据使用你定义的函数给分解成多条rdd数据
             * 例如,当前状态下,lines这个rdd类型的变量中,每一条数据都是一行String,我们现在想把他拆分成1个个的词的话,
             * 可以这样写 :
             */
            //flatMap与map的区别是,对每个输入,flatMap会生成一个或多个的输出,而map只是生成单一的输出
            //用空格分割各个单词,输入一行,输出多个对象,所以用flatMap
            JavaRDD<String> words = lines.flatMap(new FlatMapFunction<String, String>() {
                @Override
                public Iterator<String> call(String s) {
                    return Arrays.asList(SPACE.split(s)).iterator();
                }
            });
            /**
             * map 键值对 ,类似于MR的map方法
             * pairFunction<T,K,V>: T:输入类型;K,V:输出键值对
             * 表示输入类型为T,生成的key-value对中的key类型为k,value类型为v,对本例,T=String, K=String, V=Integer(计数)
             * 需要重写call方法实现转换
             */
            JavaPairRDD<String, Integer> ones = words.mapToPair(new PairFunction<String, String, Integer>() {
                //scala.Tuple2<K,V> call(T t)
                //Tuple2为scala中的一个对象,call方法的输入参数为T,即输入一个单词s,新的Tuple2对象的key为这个单词,计数为1
                @Override
                public Tuple2<String, Integer> call(String s) {
                    return new Tuple2<String, Integer>(s, 1);
                }
            });
            //A two-argument function that takes arguments
            // of type T1 and T2 and returns an R.
            /**
             * 调用reduceByKey方法,按key值进行reduce
             *  reduceByKey方法,类似于MR的reduce
             *  要求被操作的数据(即下面实例中的ones)是KV键值对形式,该方法会按照key相同的进行聚合,在两两运算
             *  若ones有<"one", 1>, <"one", 1>,会根据"one"将相同的pair单词个数进行统计,输入为Integer,输出也为Integer
             *输出<"one", 2>
             */
            JavaPairRDD<String, Integer> counts = ones.reduceByKey(new Function2<Integer, Integer, Integer>() {
                //reduce阶段,key相同的value怎么处理的问题
                @Override
                public Integer call(Integer i1, Integer i2) {
                    return i1 + i2;
                }
            });
            //备注:spark也有reduce方法,输入数据是RDD类型就可以,不需要键值对,
            // reduce方法会对输入进来的所有数据进行两两运算
    
            /**
             * collect方法用于将spark的RDD类型转化为我们熟知的java常见类型
             */
            List<Tuple2<String, Integer>> output = counts.collect();
            for (Tuple2<?,?> tuple : output) {
                System.out.println(tuple._1() + ": " + tuple._2());
            }
            ctx.stop();
        }
    }
    

    打包

    将程序打包后上传到Linux

    Spark统计单词数程序打包.gif

    测试用例

    [root@server1 ~]# vi test.txt
    a
    a b
    a b c
    a b c d
    a b c d e
    

    运行

    [root@server1 spark-2.4.4-bin-hadoop2.7]# pwd
    /root/spark-2.4.4-bin-hadoop2.7
    [root@server1 spark-2.4.4-bin-hadoop2.7]# bin/spark-submit --class WordCount ~/SparkTest1.jar ~/test.txt 
    19/09/09 17:04:56 WARN NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable
    Using Spark's default log4j profile: org/apache/spark/log4j-defaults.properties
    ...
    19/09/09 17:04:58 INFO DAGScheduler: ResultStage 1 (collect at WordCount.java:97) finished in 0.082 s
    19/09/09 17:04:58 INFO DAGScheduler: Job 0 finished: collect at WordCount.java:97, took 0.562887 s
    d: 2
    e: 1
    a: 5
    b: 4
    c: 3
    ...
    

    P.s. Spark 单机模式在官网下载压缩包解压进入 bin 目录下即可运行


    1. 摘自 https://www.cnblogs.com/itboys/p/6674132.html大葱拌豆腐↩︎

  • 相关阅读:
    利用SuperMap Deskpro进行Peking 54到WGS84的转换
    远程序列化xml文件(可用于自动更新程序中版本号的比较,更新文件的读取等)
    [转]C#导出到EXCEL
    [转]常用数学公式
    CLR Via C#系列学习笔记之委托
    黑马程序员C#语言中的三种循环:while 循环、dowhile 循环、for 循环。
    .net2005中GridView或者Datalist等超級流行的分頁
    Array.splice()删除数组中重复的数据
    .net中常需对文件夹以及常用的操作方法
    文件的上传下载示例
  • 原文地址:https://www.cnblogs.com/aar-lee/p/11497081.html
Copyright © 2020-2023  润新知