• Ambari集群里操作时典型权限问题put: `/home/bigdata/1.txt': No such file or directory的解决方案(图文详解)


      不多说,直接上干货!

     问题详情

         明明put该有的文件在,可是怎么提示的是文件找不到的错误呢?

         我就纳闷了put: `/home/bigdata/1.txt': No such file or directory

    [bigdata@ambigdata1 ~]$ pwd
    /home/bigdata
    [bigdata@ambigdata1 ~]$ ls
    1.txt  Desktop  Documents  Downloads  Music  Pictures  Public  Templates  Videos
    [bigdata@ambigdata1 ~]$ 
    [bigdata@ambigdata1 ~]$ hadoop fs -put 1.txt /paperdata
    put: Permission denied: user=bigdata, access=WRITE, inode="/paperdata._COPYING_":hdfs:hdfs:drwxr-xr-x
    [bigdata@ambigdata1 ~]$ 
    [bigdata@ambigdata1 ~]$ sudo -u hdfs hadoop fs -put 1.txt /paperdata
    put: `1.txt': No such file or directory
    [bigdata@ambigdata1 ~]$ 

        

    问题原因

       其实是,权限的问题。

          刚开始,我也纳闷,报没有文件错误,经过排查是权限问题,同时,在hdfs用户切换过来也得到了验证。

      

      除了自己谁都 操作不了。

       

       bigdata用户是我安装ambari集群时候的用户,是除了自己bigdata这个用户之外,以及root用户,其余全都无法操作。

        

      问题解决办法

      

     

       [bigdata@ambigdata1 ~]$ sudo -u hdfs hadoop fs -mkdir /papaerdata

       [bigdata@ambigdata1 ~]$ sudo -u hdfs hadoop fs -chmod -R 777 /papaerdata

       [root@ambigdata1 ~]# chmod 755 -R /root

       [root@ambigdata1 bigdata]# sudo -u hdfs hadoop fs -chmod -R 777 /paperdata

       [root@ambigdata1 bigdata]# hadoop fs -put 1.txt /paperdata

       成功!

      切换到hdfs上验证下(必须得先从)

      [bigdata@ambigdata1 ~]$ su root
      Password:
      [root@ambigdata1 bigdata]# su hdfs
      [hdfs@ambigdata1 bigdata]$

      [hdfs@ambigdata1 ~]$ touch 2.txt
      [hdfs@ambigdata1 ~]$ hadoop fs -put 2.txt /paperdata
      [hdfs@ambigdata1 ~]$

     

      如果想删除,则

      

    [root@ambigdata1 bigdata]# sudo -u hdfs hadoop fs -rm -r /paperdata/1.txt
    17/12/23 16:50:18 INFO fs.TrashPolicyDefault: Namenode trash configuration: Deletion interval = 360 minutes, Emptier interval = 0 minutes.
    Moved: 'hdfs://ambigdata1:8020/paperdata1.txt' to trash at: hdfs://ambigdata1:8020/user/hdfs/.Trash/Current
    [root@ambigdata1 bigdata]#

     spark-submit --master yarn-cluster --num-executors 4 --driver-memory 4g --executor-memory 4g --executor-cores 4 --class iforest.TestIF hdfs://ambigdata1:9000/paperdata/IForestSpark.jar hdfs://ambigdata1:9000/paperdata/UNSW-NB15_change.csv hdfs://ambigdata1:9000/paperdata/out

    欢迎大家,加入我的微信公众号:大数据躺过的坑        人工智能躺过的坑
     
     
     

    同时,大家可以关注我的个人博客

       http://www.cnblogs.com/zlslch/   和     http://www.cnblogs.com/lchzls/      http://www.cnblogs.com/sunnyDream/   

       详情请见:http://www.cnblogs.com/zlslch/p/7473861.html

      人生苦短,我愿分享。本公众号将秉持活到老学到老学习无休止的交流分享开源精神,汇聚于互联网和个人学习工作的精华干货知识,一切来于互联网,反馈回互联网。
      目前研究领域:大数据、机器学习、深度学习、人工智能、数据挖掘、数据分析。 语言涉及:Java、Scala、Python、Shell、Linux等 。同时还涉及平常所使用的手机、电脑和互联网上的使用技巧、问题和实用软件。 只要你一直关注和呆在群里,每天必须有收获

          对应本平台的讨论和答疑QQ群:大数据和人工智能躺过的坑(总群)(161156071) 

     

     
  • 相关阅读:
    安装minicom串口访问开发板
    《Linux运维趋势》2010-2013年全部期刊下载
    pap与chap协议
    简单linux网络驱动程序
    573. Squirrel Simulation
    576. Out of Boundary Paths
    568. Maximum Vacation Days
    leetcode contest 20
    55 Jump Game i && 45 Jump Game ii
    120. Triangle
  • 原文地址:https://www.cnblogs.com/zlslch/p/8093730.html
Copyright © 2020-2023  润新知