• hadoop小试


    standard mode(标准模式)

    下载

    wget http://mirror.bit.edu.cn/apache/hadoop/common/stable/hadoop-2.7.2.tar.gz
     

    解压到/usr/local/hadoop目录下(先创建此目录)

    用root身份新建hadoop用户,并设定密码

    useradd hadoop
    passwd hadoop
    

    加入到root组

    useradd -a -G root hadoop
    

    设定 /usr/local/hadoop的owner

    chown -R hadoop: /usr/local/hadoop
    

      

    切换到hadoop用户,并编辑~/.bashrc文件,添加以下指令(/etc/profile更好)

    alias hadoop="/usr/local/hadoop/bin/hadoop"
    

    通过source ~/.bashrc使得以上修改立即生效。

    体验下单词计数

    mkdir input
    echo "aaa bbb ccc aaa" >> input/words
    
    hadoop jar /usr/local/hadoop/share/hadoop/mapreduce/hadoop-mapreduce-examples-2.7.2.jar wordcount input output
    

     (ps , 可能碰到主机名报错,无法识别的主机名等等,编辑/etc/hosts文件,添加记录  "127.0.0.1 主机名")

    伪分布模式

    修改/usr/local/hadoop文件夹所有者

    sudo chown -R hadoop:root /usr/local/hadoop
    

    修改.bashrc文件(/etc/profile更好),添加内容如下:

    export HADOOP_HOME=/usr/local/hadoop
    export HADOOP_MAPRED_HOME=$HADOOP_HOME
    export HADOOP_COMMON_HOME=$HADOOP_HOME
    export HADOOP_HDFS_HOME=$HADOOP_HOME
    export YARN_HOME=$HADOOP_HOME
    export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native
    export PATH=$PATH:$HADOOP_HOME/sbin:$HADOOP_HOME/bin
    export HADOOP_INSTALL=$HADOOP_HOME
    

    配置hadoop:

    所有操作之前,设置hadoop的JAVA_HOME(/etc/profile更好, 需要单独设定hadoop/etc/hadoop/hadoop-env.sh的JAVA_HOME,很奇怪),

    export JAVA_HOME=/usr/lib/jvm/jre
    

    1. 核心配置(core-site.xml):在这里配置hadoop实例的端口号,文件系统的内存分配,存储数据的内存大小限制,读写缓存区的大小。

    vi /usr/local/hadoop/etc/hadoop/core-site.xml
    

     在configuration节点下添加以下内容

    <property>
          <name>fs.default.name </name>
          <value>hdfs://localhost:9000</value>
    </property>
    

    2. hdfs配置:是否多备(replication), 命名节点(namenode)的路径, 数据节点(datanode)的本地路径。

    vi /usr/local/hadoop/etc/hadoop/hdfs-site.xml
    

      在configuration节点下添加以下内容

       <property>
          <name>dfs.replication</name>
          <value>1</value>
       </property>
    
       <property>
          <name>dfs.name.dir</name>
          <value>file:///home/hadoop/hadoopinfra/hdfs/namenode </value>
       </property>
    
       <property>
          <name>dfs.data.dir</name>
          <value>file:///home/hadoop/hadoopinfra/hdfs/datanode </value>
       </property>
    

     hadoopinfra即其下面的目录不用手工建立,格式化时会自动建立。

    3. yarn配置

    vi /usr/local/hadoop/etc/hadoop/yarn-site.xml
    
       <property>
          <name>yarn.nodemanager.aux-services</name>
          <value>mapreduce_shuffle</value>
       </property>
    

    4. mapreduce框架配置

    vi /usr/local/hadoop/etc/hadoop/mapred-site.xml
    

    在configuration节点下添加以下内容

    <property>
          <name>mapreduce.framework.name</name>
          <value>yarn</value>
       </property>
    

     这里配置了默认的yarn作为mapreduce算法的处理对象。

     应该也可配置spark。

    5. 启动

    a), 切换到hadoop用户,进行hdfs格式化,如下:

    cd ~ 
    hdfs namenode -format 
    

    b), 启动dfs和yarn

    start-dfs.sh
    

     ...

    start-yarn.sh
    

     ...

    c). 查看hadoop运行情况,用浏览器打开http://localhost:50070/

    d). 查看集群(cluster)的应用(applications) 用浏览器打开http://localhost:8088/

    如果觉得英文阅读毫无问题,建议看这里:http://www.tutorialspoint.com/hadoop/hadoop_enviornment_setup.htm

  • 相关阅读:
    JQuery封装的ajax
    DOM节点操作
    ES6中的let和const
    CSS cursor 属性
    ui-router 视图嵌套时指定二级视图显示默认页面
    数组去重的几种方法
    basic_consume() got multiple values for keyword argument 'queue'
    perl改造成bash---结果写入xml
    springmvc 启动报 java.lang.NoSuchMethodError: org.springframework.core.GenericTypeResolver.resolveTypeArguments(Ljava/lang/Class;Ljava/lang/Class;)[Ljava/lang/Class;
    web项目部署名和项目名不一致
  • 原文地址:https://www.cnblogs.com/Tommy-Yu/p/5206446.html
Copyright © 2020-2023  润新知