zoukankan      html  css  js  c++  java
  • wind本地MySQL数据到hive的指定路径,Could not create file

    一:使用:kettle:wind本地MySQL数据到hive的指定路径
    二:问题:没有root写权限
    网上说的什么少jar包,我这里不存在这种情况,因为我自己是导入jar包的:mysql-connector-java-5.1.22-bin.jar
    我是从wind本地MySQL导数据到hive的指定路径,会出现2019/10/14 19:27:13 - Hadoop file output.0 - Caused by: org.pentaho.bigdata.api.hdfs.exceptions.AccessControlException: Permission denied: user=³ÂÐÂ, access=WRITE, inode="/hadoop/test":root:supergroup:drwxr-xr-x
    其实大概意思是说我没有root写权限:
    搜索了网上很多说法,但是没有用,我自己使用了这种,仅供参考,可以使用:
    三:解决办法:
    # 添加用户
    hadoop fs -mkdir /user/admin
    # 权限分配
    hadoop fs -chown admin:hdfs /user/admin
    # 修改权限
    hadoop fs -chmod -R 777 /

    报错部分关键字:
    1.org.pentaho.di.core.exception.KettleFileException
    2.org.apache.commons.vfs2.FileSystemException: Could not create file
    3.2019/10/14 19:27:13 - Hadoop file output.0 - Caused by: org.pentaho.bigdata.api.hdfs.exceptions.AccessControlException: Permission denied: user=³ÂÐÂ, access=WRITE, inode="/hadoop/test":root:supergroup:drwxr-xr-x

  • 相关阅读:
    六、Redis主从复制 
    五、AOF持久化
    四、RDB持久化
    三、数据类型
    二、redis的配置文件介绍
    第八章、堆
    九、补充
    八、Filter
    七、监听器和国际化
    六、JDBC
  • 原文地址:https://www.cnblogs.com/xinliang1788/p/11675358.html
Copyright © 2011-2022 走看看