• hadoop入门系列之九--使用IDEA开发Spark Application及Local与打包测试讲解


    1. 安装IDEA和scala

        IDEA 可以去官网下载

        scala插件 https://plugins.jetbrains.com/plugin/1347-scala

        要注意IDEA需要对应的jdk版本

    2. 新建scala项目

    3.配置项目结构和dependencies,要在libraries里加入spark

     

    4. 运行hello workd测试项目是否可以

    object HelloWorld3 {
    def main(args: Array[String]) {
    println("Hello World")
    }
    }

    5. 新建sparkdemo,测试
    //System.setProperty("HADOOP_USER_NAME", "hadoop01");
    /*val logFile = "hdfs://10.10.0.141:9000/user/hadoop01/mapreduce/wordcount/input/wc.input" // Should be some file on your system
    val conf = new SparkConf().setAppName("Simple Application")
    val sc = new SparkContext(conf)
    val rdd=sc.textFile(logFile)
    val wordcount=rdd.flatMap(_.split(" ")).map((_,1)).reduceByKey(_+_)
    wordcount.saveAsTextFile("hdfs://10.10.0.141:9000/user/hadoop01/mapreduce/wordcount/sparkoutput4");
    sc.stop()

     最后在hdfs里查看运行结果

    bin/hdfs dfs -text /user/hadoop01/mapreduce/wordcount/sparkoutput3/part*

  • 相关阅读:
    c++ 迷宫问题
    linux下恢复删除的文件
    c++ 分解数2
    c++ 平分石头
    多态
    设计模式中类的6种关系
    工厂方法模式
    设计原则之面向接口编程
    封装、继承
    便利构造器、单件模式
  • 原文地址:https://www.cnblogs.com/lovefendi/p/7283989.html
Copyright © 2020-2023  润新知