• GIS+=地理信息+云计算技术——Spark集群部署


    第一步:安装软件
            Spark 1.5.4:wget
    http://www.apache.org/dyn/closer.lua/spark/spark-1.5.2/spark-1.5.2-bin-hadoop2.6.tgz
            Hadoop 2.6.3:wget http://www.apache.org/dyn/closer.cgi/hadoop/common/hadoop-2.6.3/hadoop-2.6.3.tar.gz
            scala :apt-get install scala
    第二步:配置环境变量
            运行/etc/profile
            export JAVA_HOME=/usr/lib/jvm/jdk1.7.0_80
            export PATH=$JAVA_HOME/bin:$JAVA_HOME/jre/BIN:${SCALA_HOME}/bin:${SPARK_HOME}/bin:/home/supermap/program/hadoop-2.6.3/bin:$PATH
            export CLASSPATH=$CLASSPATH:.:$JAVA_HOME/lib:$JAVA_HOME/jre/lib
            export SCALA_HOME=/usr/lib/scala/scala-2.11.7
            export PATH=${SCALA_HOME}/bin:$PATH
            export SPARK_HOME=/program/spark-1.5.2-bin-hadoop2.6
            source /etc/profile
    第三步:创建镜像
            通过OpenStack管理器依据配置好的虚拟机创建镜像。生成的镜像配置例如以下:     
            镜像概况信息
            ________________________________________
            名称        spark-hadoop
            ID            61055db5-598b-4f1a-98fa-d2cbbf305d0c
            状态        Active
            公有        False
            受保护的        False
            校验和        47acf7993101713aee17764802602941
            ________________________________________
            配置               4.4 GB
            容器格式        BARE
            磁盘格式        QCOW2
            最小磁盘        60.0GB

    第四步:创建虚拟机
            基于创建的镜像,生成2台虚拟机,加上最開始用于创建镜像的1台,一共3台虚拟主机。名称分别为:
            spark_hadoop_master
            spark_hadoop_slave1
            spark_hadoop_slave2
            以下就能够開始做与创建Spark集群相关的操作了。
    第五步:设置主机名
            1.在/etc/hostname中就改主机名,分别设置三台主机为master、slave1、slave2,并重新启动
             

           
            2.重新启动之后,分别设置三个节点etc/hosts,指定ip和主机名的相应关系。
            
            通过測试
    root@master:~# ssh slave1,在输入root用户password后能够登录。
    第六步:改动ssh无password訪问
            首先开启root用户訪问权限
            1. 改动/etc/ssh/sshd-config文件。设置例如以下:
            2. PermitRootLogin yes
            3. PubkeyAuthentication yes
            4. PasswordAuthentication yes
            又一次启动ssh服务:service ssh restart
            再进行例如以下測试,能够免输入password登录了。
            
    第七步:配置Spark集群
            进入Spark的conf文件夹:
            

            把spark-env.sh.template拷贝为spark-env.sh
            把slaves.template拷贝为slaves

            vim打开spark-env.sh改动当中的内容。增加下面设置

            export JAVA_HOME=/usr/lib/jvm/jdk1.7.0_80
            export SPARK_MASTER_IP=192.168.12.154
            export SPARK_WORKER_MEMORY=4g
            export SCALA_HOME=/usr/lib/scala/scala-2.11.7
            export HADOOP_CONF_DIR=/home/supermap/program/hadoop-2.6.3/etc/hadoop

            SPARK_WORKER_MEMORY:制定的Worker节点可以最大分配给Excutors的内存大小,因为配置的虚拟机是4g内存,为了最大限度使用内存,这里设置4G。
            接下来配置slaves文件,把Workers节点都加入进去:
            
            这样的配置把master也作为一个Worker节点。

            以上配置在master和slave1。slave2节点都做同样处理。

    第八步:启动集群
            这里測试没有启动Hadoop集群。仅仅须要Spark集群进行启动就可以,在Spark文件夹下,执行sbin/start-all.sh就可以启动集群服务。


            
            最后通过訪问spark管理页面查看服务状态
            


  • 相关阅读:
    CDQ分治
    K-th Number POJ
    A * B Problem Plus HDU
    Prime Test POJ
    数据结构
    FFT
    mysql查询出相同数据出现的次数,统计相同值的数量
    Laravel 清空配置缓存
    php7 数据导出Excel office 2011中文乱码问题
    PHP file_put_contents函数数据导出csv文件,屏幕字符串逗号分隔符
  • 原文地址:https://www.cnblogs.com/blfbuaa/p/7199978.html
Copyright © 2020-2023  润新知