• wind本地MySQL数据到hive的指定路径


    一:使用:kettle:wind本地MySQL数据到hive的指定路径
    二:问题:没有root写权限
    网上说的什么少jar包,我这里不存在这种情况,因为我自己是导入jar包的:mysql-connector-java-5.1.22-bin.jar
    我是从wind本地MySQL导数据到hive的指定路径,会出现2019/10/14 19:27:13 - Hadoop file output.0 - Caused by: org.pentaho.bigdata.api.hdfs.exceptions.AccessControlException: Permission denied: user=³ÂÐÂ, access=WRITE, inode="/hadoop/test":root:supergroup:drwxr-xr-x
    其实大概意思是说我没有root写权限:
    搜索了网上很多说法,但是没有用,我自己使用了这种,仅供参考,可以使用:
    三:解决办法:
    # 添加用户
    hadoop fs -mkdir /user/admin
    # 权限分配
    hadoop fs -chown admin:hdfs /user/admin
    # 修改权限
    hadoop fs -chmod -R 777 /

    报错部分关键字:
    1.org.pentaho.di.core.exception.KettleFileException
    2.org.apache.commons.vfs2.FileSystemException: Could not create file
    3.2019/10/14 19:27:13 - Hadoop file output.0 - Caused by: org.pentaho.bigdata.api.hdfs.exceptions.AccessControlException: Permission denied: user=³ÂÐÂ, access=WRITE, inode="/hadoop/test":root:supergroup:drwxr-xr-x

  • 相关阅读:
    websocket1
    webpack 入门三
    weboack 入门二
    webpack 入门一
    输入一个url发生了什么
    http详解
    JavaScript对象详解
    javaScript垃圾回收机制
    js数据类型与隐式类型转换
    iOS证书申请、AppStore上架流程
  • 原文地址:https://www.cnblogs.com/xinliang1788/p/11675364.html
Copyright © 2020-2023  润新知