• spark 单机版安装


    1.安装jdk

    解压jdk安装包到任意目录:

    cd /home/tom
    $ tar -xzvf jdk-8u73-linux-x64.tar.gz
    $ sudo vim /etc/profile

    编辑/etc/profile文件,在最后加上java环境变量:

    export JAVA_HOME=/home/tom/jdk1.8.0_73/
    export JRE_HOME=/home/tom/jdk1.8.0_73/jre
    export PATH=$JAVA_HOME/bin:$JRE_HOME/bin:$PATH
    export CLASSPATH=.:$JAVA_HOME/lib:$JRE_HOME/lib:$CLASSPATH

    保存并更新 /etc/profile :

    $ source /etc/profile

    查看是否成功:

    $ java -version

    2.配置ssh localhost

    确保安装好ssh:

    $ sudo apt-get update
    $ sudo apt-get install openssh-server
    $ sudo /etc/init.d/ssh start

    生成并添加密钥:

    $ ssh-keygen -t rsa
    $ cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys
    $ chmod 0600 ~/.ssh/authorized_keys

    如果已经生成过密钥,只需执行后两行命令。测试ssh localhost

    $ ssh localhost
    $ exit

    3.安装hadoop2.6.0

    解压hadoop2.6.0到任意目录:

    $ cd /home/tom
    $ wget http://apache.claz.org/hadoop/common/hadoop-2.6.0/hadoop-2.6.0.tar.gz
    $ tar -xzvf hadoop-2.6.0.tar.gz

    编辑 /etc/profile 文件,在最后加上java环境变量:

    export HADOOP_HOME=/home/tom/hadoop-2.6.0
    export HADOOP_INSTALL=$HADOOP_HOME
    export HADOOP_MAPRED_HOME=$HADOOP_HOME
    export HADOOP_COMMON_HOME=$HADOOP_HOME
    export HADOOP_HDFS_HOME=$HADOOP_HOME
    export YARN_HOME=$HADOOP_HOME
    export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native
    export PATH=$PATH:$HADOOP_HOME/sbin:$HADOOP_HOME/bin

    编辑 $HADOOP_HOME/etc/hadoop/hadoop-env.sh 文件

    $ vim $HADOOP_HOME/etc/hadoop/hadoop-env.sh

    在最后加上:

    export JAVA_HOME=/home/tom/jdk1.8.0_73/

    修改Configuration文件:

    $ cd $HADOOP_HOME/etc/hadoop

    修改 core-site.xml :

    <configuration>
    <property>
      <name>fs.default.name</name>
        <value>hdfs://localhost:9000</value>
    </property>
    </configuration>

    修改 hdfs-site.xml :

    <configuration>
    <property>
     <name>dfs.replication</name>
     <value>1</value>
    </property>
    
    <property>
      <name>dfs.name.dir</name>
        <value>file:///home/tom/hadoopdata/hdfs/namenode</value>
    </property>
    
    <property>
      <name>dfs.data.dir</name>
        <value>file:///home/tom/hadoopdata/hdfs/datanode</value>
    </property>
    </configuration>

    第一个是dfs的备份数目,单机用1份就行,后面两个是namenode和datanode的目录。

    修改 mapred-site.xml :

    <configuration>
     <property>
      <name>mapreduce.framework.name</name>
       <value>yarn</value>
     </property>
    </configuration>

    修改 yarn-site.xml :

    <configuration>
     <property>
      <name>yarn.nodemanager.aux-services</name>
        <value>mapreduce_shuffle</value>
     </property>
    </configuration>

    修改hosts配置文件

    vi /etc/hosts在最末尾加上
    127.0.0.0.1 $hostname

    初始化hadoop:

      cd $hadoop_home/bin

    $ hdfs namenode -format

    启动

    $ $HADOOP_HOME/sbin/start-all.sh

    停止

    $ $HADOOP_HOME/sbin/stop-all.sh

    检查WebUI,浏览器打开端口: http://localhost :8088

    • port 8088: cluster and all applications

    • port 50070: Hadoop NameNode

    • port 50090: Secondary NameNode

    • port 50075: DataNode

    hadoop运行后可使用 jps 命令查看,得到结果:

    10057 Jps
    9611 ResourceManager
    9451 SecondaryNameNode
    9260 DataNode
    9102 NameNode
    9743 NodeManager

    4.安装scala

    解压scala安装包到任意目录:

    $ cd /home/tom
    $ tar -xzvf scala-2.10.6.tgz
    $ sudo vim /etc/profile

    在 /etc/profile 文件的末尾添加环境变量:

    export SCALA_HOME=/home/tom//scala-2.10.6
    export PATH=$SCALA_HOME/bin:$PATH

    保存并更新 /etc/profile :

    $ source /etc/profile

    查看是否成功:

    $ scala -version

    5.安装Spark

    解压spark安装包到任意目录:

    $ cd /home/tom
    $ tar -xzvf spark-1.6.0-bin-hadoop2.6.tgz
    $ mv spark-1.6.0-bin-hadoop2.6 spark-1.6.0
    $ sudo vim /etc/profile

    在 /etc/profile 文件的末尾添加环境变量:

    export SPARK_HOME=/home/tom/spark-1.6.0
    export PATH=$SPARK_HOME/bin:$PATH

    保存并更新 /etc/profile :

    $ source /etc/profile

    在conf目录下复制并重命名 spark-env.sh.template 为 spark-env.sh :

    $ cp spark-env.sh.template spark-env.sh
    $ vim spark-env.sh

    在 spark-env.sh 中添加:

    export JAVA_HOME=/home/tom/jdk1.8.0_73/
    export SCALA_HOME=/home/tom//scala-2.10.6
    export SPARK_MASTER_IP=localhost
    export SPARK_WORKER_MEMORY=4G

    启动

    $ $SPARK_HOME/sbin/start-all.sh

    停止

    $ $SPARK_HOME/sbin/stop-all.sh

    测试Spark是否安装成功:

    $ $SPARK_HOME/bin/run-example SparkPi

    得到结果:

    Pi is roughly 3.14716

    检查WebUI,浏览器打开端口: http://localhost :8080

    在spark上执行task

    spark-submit --master spark://10.10.5.246:7077 --name WordCountByscala --class luozt_scala.spark.wordcount --executor-memory 1G --total-executor-cores 2 /home/luozt/spark/spark0824.jar  /home/luozt/spark/README.md 

  • 相关阅读:
    MySQL行(记录)的详细操作一 介绍 二 插入数据INSERT 三 更新数据UPDATE 四 删除数据DELETE 五 查询数据SELECT 六 权限管理
    {MySQL完整性约束}一 介绍 二 not null与default 三 unique 四 primary key 五 auto_increment 六 foreign key 七 作业
    { MySQL基础数据类型}一 介绍 二 数值类型 三 日期类型 四 字符串类型 五 枚举类型与集合类型
    MySQL的sql_mode模式说明及设置
    {MySQL存储引擎介绍}一 存储引擎解释 二 MySQL存储引擎分类 三 不同存储引擎的使用
    {MySQL的库、表的详细操作}一 库操作 二 表操作 三 行操作
    小爬爬2.数据解析
    小爬爬2:fiddler安装和了解fiddler
    小爬爬2.回顾
    小爬爬1.requests基础操作
  • 原文地址:https://www.cnblogs.com/luo-mao/p/5941708.html
Copyright © 2020-2023  润新知