• wind本地MySQL数据到hive的指定路径


    一:使用:kettle:wind本地MySQL数据到hive的指定路径
    二:问题:没有root写权限
    网上说的什么少jar包,我这里不存在这种情况,因为我自己是导入jar包的:mysql-connector-java-5.1.22-bin.jar
    我是从wind本地MySQL导数据到hive的指定路径,会出现2019/10/14 19:27:13 - Hadoop file output.0 - Caused by: org.pentaho.bigdata.api.hdfs.exceptions.AccessControlException: Permission denied: user=³ÂÐÂ, access=WRITE, inode="/hadoop/test":root:supergroup:drwxr-xr-x
    其实大概意思是说我没有root写权限:
    搜索了网上很多说法,但是没有用,我自己使用了这种,仅供参考,可以使用:
    三:解决办法:
    # 添加用户
    hadoop fs -mkdir /user/admin
    # 权限分配
    hadoop fs -chown admin:hdfs /user/admin
    # 修改权限
    hadoop fs -chmod -R 777 /

    报错部分关键字:
    1.org.pentaho.di.core.exception.KettleFileException
    2.org.apache.commons.vfs2.FileSystemException: Could not create file
    3.2019/10/14 19:27:13 - Hadoop file output.0 - Caused by: org.pentaho.bigdata.api.hdfs.exceptions.AccessControlException: Permission denied: user=³ÂÐÂ, access=WRITE, inode="/hadoop/test":root:supergroup:drwxr-xr-x

  • 相关阅读:
    postgres导入和导出
    postgres日常操作
    NumPy Ndarray 对象
    NumPy 简介及安装
    Python两个内置函数locals 和globals
    python之multiprocessing多进程
    postgres外部表
    css中文本超出部分省略号代替
    js中的作用域链
    css中clip:rect矩形剪裁功能
  • 原文地址:https://www.cnblogs.com/xinliang1788/p/11675364.html
Copyright © 2020-2023  润新知