• Spark 2.2.0 分布式集群环境搭建


    集群机器:

    1台 装了 ubuntu 14.04的 台式机

    1台 装了ubuntu 16.04 的 笔记本     (机器更多时同样适用)

    1.需要安装好Hadoop分布式环境

    参照:Hadoop分类  -->http://www.cnblogs.com/soyo/p/7868282.html

    2.安装Spark2.2.0 到/usr/local2

       sudo chmod -R 777 Spark(  此/usr/local2路径下的被解压的spark("spark"名字是自己改的)  )

    3.配置环境变量

    vim  ~/.bashrc

    添加:

    export SPARK_HOME=/usr/local2/spark
    export PATH=$PATH:$SPARK_HOME/bin:$SPARK_HOME/sbin

    source   ~/.bashrc

    4.Spark分布式配置:

    在Master节点主机上进行如下操作:

    1.配置 slaves:slaves文件设置Worker节点

       cd /usr/local2/spark/conf

       cp ./slaves.template  ./slaves

      vim slaves

    2.配置 spark-env.sh (刚开始这个文件也是没有的)( cp ./spark-env.sh.template  ./spark-env.sh)

    这里就加了 export SPARK_MASTER_IP=192.168.1.130 (别的是以前在非分布式情况下使用Spark需要时添加的)

    SPARK_MASTER_IP 指定 Spark 集群 Master 节点的 IP 地址;

    4.给节点分发Spark配置:

    cd /usr/local2

    tar -zcf  ~/ spark.tar.gz  ./spark

    cd ~

    scp ./spark.tar.gz soyo-slave01:/home/soyo

    在soyo-slave01节点上分别执行下面同样的操作:

    sudo tar -zxf spark.tar.gz  -C /usr/local2

    sudo chmod -R 777 spark

    4.启动Spark集群:

    4.1先启动分布式Hadoop:

     在master节点执行:start-all.sh

    4.2启动Spark:

    启动Master节点:

    在master节点执行:start-master.sh (在soyo-VPCCB3S1C节点执行jps:多了Master这个进程)

    启动slave节点:

    在master节点执行:start-slaves.sh (在soyo-slave01节点执行jps:多了Worker这个进程)

    4.3在浏览器上查看Spark独立集群管理器的集群信息

       http://soyo-vpccb3s1c:8080/

    4.关闭Spark集群:

  • 相关阅读:
    你不知道的正则表达式
    浅谈apache网页优化及方法
    Web基础与HTTP协议
    nfs
    Vi编辑器的工作模式
    磁盘管理和磁盘配额
    系统安全及应用
    正则表达式与文本编辑器
    读书笔记_java设计模式深入研究 第三章 工厂模式 Factory
    JavaScript模式读书笔记 第7章 设计模式
  • 原文地址:https://www.cnblogs.com/soyo/p/7911649.html
Copyright © 2020-2023  润新知