• There are 0 datanode(s) running and no node(s) are excluded in this operation.


    向hadoop导入文件,报错

    ....

    There are 0 datanode(s) running and no node(s) are excluded in this operation.

    ....

    查看配置 

    $hadoop_home/hadoop/etc/hdfs-site.xml

    <property>
    <name>dfs.namenode.name.dir</name>
    <value>file:/home/sparkuser/myspark/hadoop/hdfs/name</value>
    </property>
    <property> 

    解决

    删除目录下的 hdfs目录下所有文件

    1. 查看NameNode的9000端口,(core-site.xml文件中的fs.default.name节点配置)端口是否打开,因为所有的DataNode都要通过这个端口连接NameNode

    2. 关闭防火墙,因为防火墙可能会阻止其他的电脑连接。使用以下命令关闭防火墙

    **查看防火墙**

    service iptables status

    service iptable stop

    chkconfig iptable  off

    3.在host文件中注释掉

    127.0.0.1 localhost 
    ::1 localhost6 Master

  • 相关阅读:
    2072=删数问题
    2872=M--二分查找
    4165=全排列问题
    2805=大家快来A水题
    4148=1.1联结词真值运算
    2748=第X大的数
    3479=青蛙过河
    1200=汉诺塔
    Leetcode92_反转链表II
    Leetcode206_反转链表
  • 原文地址:https://www.cnblogs.com/jeffry/p/6914010.html
Copyright © 2020-2023  润新知