• spark大数据处理之hello world


    Spark是UC Berkeley AMP lab (加州大学伯克利分校的AMP实验室)所开源的类Hadoop MapReduce的通用并行框架,关于它的介绍网上随便一搜都是一大堆,在此就不再赘述了。

    Spark的开发是基于scala语言的,属于java和js的综合体,知晓java及js的同学应该都是很容易上手的。

    开发一个spark的程序一般用专门的IDE,叫做Scala IDE for Eclipse,和开发java的界面差不多。

    下面我们就用图文来说明,如何开发出第一个spark的程序。

    一 切换到scala开发环境

                                                                               (一)点击其中红色箭头所指的按钮,切换到scala开发环境

    二 新建scala工程

                                                                                  (二) 新建一个Scala工程

    三 新建一个scala object

                                                                                  (三)新建一个scala Object

    四 写入打印代码

             

    package first.helloworld

    object HelloWorld {
    def main(args:Array[String]){
    println("hello world");
    }
    }

    五 导成jar包,提交到spark环境运行

        spark-submit --class first.helloworld.HelloWorld   --master spark://ha-test:7077 first.jar

    六 查看运行结果

        不出意外,大功告成,没错,就那么简单!比起网上动不动就上万的培训费,是不是感觉一万个草泥马在奔腾呢!

  • 相关阅读:
    HttpResponse对象、JsonResponse、StreamingHttpResponse、FileResponse
    for循环
    字符串功能
    (二)第一个Spring Boot工程
    (一)安装Docker和Kubernetes
    如何解决CHM打开乱码的问题
    [译]PyUnit—Python单元测试框架(1)
    正则表达式
    Java开发心得
    Shell获取文件后缀名
  • 原文地址:https://www.cnblogs.com/JDtech/p/5910285.html
Copyright © 2020-2023  润新知