zoukankan      html  css  js  c++  java
  • wind本地MySQL数据到hive的指定路径,Could not create file

    一:使用:kettle:wind本地MySQL数据到hive的指定路径
    二:问题:没有root写权限
    网上说的什么少jar包,我这里不存在这种情况,因为我自己是导入jar包的:mysql-connector-java-5.1.22-bin.jar
    我是从wind本地MySQL导数据到hive的指定路径,会出现2019/10/14 19:27:13 - Hadoop file output.0 - Caused by: org.pentaho.bigdata.api.hdfs.exceptions.AccessControlException: Permission denied: user=³ÂÐÂ, access=WRITE, inode="/hadoop/test":root:supergroup:drwxr-xr-x
    其实大概意思是说我没有root写权限:
    搜索了网上很多说法,但是没有用,我自己使用了这种,仅供参考,可以使用:
    三:解决办法:
    # 添加用户
    hadoop fs -mkdir /user/admin
    # 权限分配
    hadoop fs -chown admin:hdfs /user/admin
    # 修改权限
    hadoop fs -chmod -R 777 /

    报错部分关键字:
    1.org.pentaho.di.core.exception.KettleFileException
    2.org.apache.commons.vfs2.FileSystemException: Could not create file
    3.2019/10/14 19:27:13 - Hadoop file output.0 - Caused by: org.pentaho.bigdata.api.hdfs.exceptions.AccessControlException: Permission denied: user=³ÂÐÂ, access=WRITE, inode="/hadoop/test":root:supergroup:drwxr-xr-x

  • 相关阅读:
    redis实时同步工具redis-shake
    elasticsearch单机部署
    ogg从库进程监控
    mha安装部署
    mha自定义路径安装
    gnuplot输出柱状图
    gnuplot输出曲线图
    gnuplot命令行模式不支持中文标题的解决办法
    ogg中logdump使用自动输入执行
    JDK(java se development kit)的构成
  • 原文地址:https://www.cnblogs.com/xinliang1788/p/11675358.html
Copyright © 2011-2022 走看看