• hadoop-1.2.1安装配置


    1.准备三台节点 hnd1  hnd2  hnd3

    下载 hadoop 

    下载地址:http://apache.fayea.com/hadoop/common/

    API文档:http://hadoop.apache.org/docs/r1.0.4/cn/index.html

    2.解压;tar -zxvf hadoop-1.2.1.tar.gz
    添加软连接:ln -sf /home/hadoop/package/hadoop-1.2.1 /home/hadoop-1.2

    3.更改配置:
    进入/home/hadoop-1.2/conf
    修改 vi core-site.xml 配置hdfs的入口和工作目录
    可参考:http://hadoop.apache.org/docs/r1.2.1/single_node_setup.html
    file:///D:/tool/%E6%96%87%E6%A1%A3/db/hadoop-1.2.1/hadoop-1.2.1/docs/core-default.html
    修改hadoop.tmp.dir这个目录 dfs等很多工作目录是以此为基础的

    <configuration>
             <property>
                     <name>fs.default.name</name>
                     <value>hdfs://hnd1:9000</value>
             </property>
    
             <property>
                     <name>hadoop.tmp.dir</name>
                     <value>/opt/hadoop-1.2</value>
             </property>
    
    </configuration>

    修改 vi hdfs-site.xml 配置副本数 不配的情况下默认是3

    <configuration>
            <property>
                     <name>dfs.replication</name>
                     <value>2</value>
             </property>
    </configuration>

    修改 vi slaves 配置datanode
    hnd2
    hnd3

    修改 vi masters 配置second NameNode
    hnd2 就是second NameNode配置到第二台系统中

    4.ssh免密码登录
    生成密钥到/root/.ssh目录下
    $ ssh-keygen -t dsa -P '' -f ~/.ssh/id_dsa
    执行下面命令实现本地免密码登录
    $ cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys
    跨系统免密码登录
    拷贝hnd1公钥到hnd2root目录下 scp id_dsa.pub root@hnd2:~
    在hnd2中root目录下 cat id_dsa.pub >> ~/.ssh/authorized_keys
    这样就可以访问了

    5.启动服务
    把tar包拷贝到其它节点上
    scp -r /home/hadoop/package/hadoop-1.2.1.tar.gz root@hnd2:~/
    scp -r /home/hadoop/package/hadoop-1.2.1.tar.gz root@hnd3:~/
    解压 tar -zxvf hadoop-1.2.1.tar.gz
    创建软链ln -sf /root/hadoop-1.2.1 /home/hadoop-1.2
    把hnd1的配置/home/hadoop-1.2/conf
    这个目录全部拷贝到hnd2hnd3
    scp ./* root@hnd2:/home/hadoop-1.2/conf/
    scp ./* root@hnd3:/home/hadoop-1.2/conf/
    bin目录下格式化 ./hadoop namenode -format
    启动服务 ./start-dfs.sh

    6.启动时JAVA_HOME is not set.
    conf 配置
    vi hadoop-env.sh

    JAVA_HOME的配置
    解压 tar -zxvf jdk-8u91-linux-x64.tar.gz
    配置 export JAVA_HOME=/usr/java/jdk1.8.0_77
    PATH=$JAVA_HOME/bin:$PATH:$HOME/bin
    执行 source .bash_profile
    查看 Java -version OK

    其它节点安装jdk
    拷贝 scp -r /home/hadoop/package/jdk-8u91-linux-x64.tar.gz root@hnd2:~/
    scp -r /home/hadoop/package/jdk-8u91-linux-x64.tar.gz root@hnd3:~/


    7.
    jps 查看启动的进程
    其他节点上的进程没有启动 关闭防火墙
    service iptables stop

    8.访问 http://hnd1:50070/
    本地需要配置域名解析
    C:WindowsSystem32driversetc hosts

    9.


    ssh: Could not resolve hostname hnd2: Name or service not known
    vi /etc/hosts
    192.168.40.101 hnd1
    192.168.40.102 hnd2
    192.168.40.103 hnd3

    vi /etc/sysconfig/network
    NETWORKING=yes
    HOSTNAME=h1

    xshell 连接linux命令 ssh 192.168.40.101
    断开的命令:exit

    IT技术和行业交流群: 417691667

  • 相关阅读:
    基于Haproxy+Keepalived构建高可用负载均衡集群
    基于 Haproxy 构建负载均衡集群
    shell for循环练习题99乘法表
    帮软件同事写的vsftpd服务虚拟用户管理脚本
    sed文件处理练习题
    判断ssh登录密码验证错误超过5次的IP被拉黑
    使用shell中数组功能生成自己的手机号
    利用Crontab设置每个月第一个周六的17:30执行/opt/shell.sh 脚本
    Tomcat 项目代码上线步骤详解
    Jar/War/Ear等包的作用与区别详解
  • 原文地址:https://www.cnblogs.com/sun-rain/p/5429715.html
Copyright © 2020-2023  润新知