zoukankan      html  css  js  c++  java
  • Java 简单操作hdfs API

    注:图片如果损坏,点击文章链接:https://www.toutiao.com/i6632047118376780295/

    启动Hadoop出现问题:datanode的clusterID 和 namenode的clusterID 不匹配

    Java 简单操作hdfs API

     

    从日志中可以看出,原因是因为datanode的clusterID 和 namenode的clusterID 不匹配。

    打开hdfs-site.xml里配置的datanode和namenode对应的目录,分别打开current文件夹里的VERSION,可以看到clusterID项正如日志里记录的一样,确实不一致,修改datanode里VERSION文件的clusterID 与namenode里的一致,再重新启动dfs(执行start-dfs.sh)再执行jps命令可以看到datanode已正常启动。

    出现该问题的原因:在第一次格式化dfs后,启动并使用了hadoop,后来又重新执行了格式化命令(hdfs namenode -format),这时namenode的clusterID会重新生成,而datanode的clusterID 保持不变。

    验证伪分布环境是否完成

    Java 简单操作hdfs API

     

    Java 简单操作hdfs API

     

    Java操作hdfs

    新创建一个maven项目

    Java 简单操作hdfs API

     

    Java 简单操作hdfs API

     

    编写pom文件

    Java 简单操作hdfs API

     

    编写测试代码

    Java 简单操作hdfs API

     

    Java 简单操作hdfs API

     

    我们运行一下看一看

    Java 简单操作hdfs API

     

    这种简单的写法是本地模式,所以我们去看下本地文件是不是有了

    Java 简单操作hdfs API

     

    那么我们怎么上传到我们的虚拟机中呢?即伪分布模式

    添加一句配置代码

    Java 简单操作hdfs API

     

    其中配置部分可以查看core-site.xml文件

    Java 简单操作hdfs API

     

    然后查看我们的浏览器,文件存在

    Java 简单操作hdfs API

     

  • 相关阅读:
    mac安装搜狗
    idea的阿里代码规范检查
    记录windows10闪屏
    github访问不了
    线程安全问题例子
    简单负载均衡工具类
    git将远程分支回归到指定版本
    minio的使用
    php禁止浏览器使用缓存页面的方法
    百度seo
  • 原文地址:https://www.cnblogs.com/bqwzy/p/9573725.html
Copyright © 2011-2022 走看看