zoukankan      html  css  js  c++  java
  • 7月25日

    今天继续学习hdfs的shell操作

    HDFS 直接操作

    1)-ls: 显示目录信息 [atguigu@hadoop102 hadoop-3.1.3]$ hadoop fs -ls /sanguo

    2)-cat:显示文件内容 [atguigu@hadoop102 hadoop-3.1.3]$ hadoop fs -cat /sanguo/shuguo.txt

    3)-chgrp、-chmod、-chown:Linux 文件系统中的用法一样,修改文件所属权限 [atguigu@hadoop102 hadoop-3.1.3]$ hadoop fs -chmod 666 /sanguo/shuguo.txt [atguigu@hadoop102 hadoop-3.1.3]$ hadoop fs -chown atguigu:atguigu /sanguo/shuguo.txt

    4)-mkdir:创建路径 [atguigu@hadoop102 hadoop-3.1.3]$ hadoop fs -mkdir /jinguo

    5)-cp:从 HDFS 的一个路径拷贝到 HDFS 的另一个路径 [atguigu@hadoop102 hadoop-3.1.3]$ hadoop fs -cp /sanguo/shuguo.txt /jinguo

    6)-mv:在 HDFS 目录中移动文件 [atguigu@hadoop102 hadoop-3.1.3]$ hadoop fs -mv /sanguo/wuguo.txt /jinguo [atguigu@hadoop102 hadoop-3.1.3]$ hadoop fs -mv /sanguo/weiguo.txt /jinguo

    7)-tail:显示一个文件的末尾 1kb 的数据 [atguigu@hadoop102 hadoop-3.1.3]$ hadoop fs -tail /jinguo/shuguo.txt

    8)-rm:删除文件或文件夹 [atguigu@hadoop102 hadoop-3.1.3]$ hadoop fs -rm /sanguo/shuguo.txt

    9)-rm -r:递归删除目录及目录里面内容 [atguigu@hadoop102 hadoop-3.1.3]$ hadoop fs -rm -r /sanguo

    10)-du 统计文件夹的大小信息 [atguigu@hadoop102 hadoop-3.1.3]$ hadoop fs -du -s -h /jinguo 27 81 /jinguo [atguigu@hadoop102 hadoop-3.1.3]$ hadoop fs -du -h /jinguo 14 42 /jinguo/shuguo.txt 7 21 /jinguo/weiguo.txt 6 18 /jinguo/wuguo.tx 说明:27 表示文件大小;81 表示 27*3 个副本;/jinguo 表示查看的目录

    11)-setrep:设置 HDFS 中文件的副本数量 [atguigu@hadoop102 hadoop-3.1.3]$ hadoop fs -setrep 10 /jinguo/shuguo.txt

    这些比较简单和linux很像

    开始搭建idea环境来写hdfs的api环境,由于是第一次用idea 所有都是从0开始,配置了很久很久

    https://www.cnblogs.com/phpdragon/p/7216626.html  ,这个教程比较全面,值得参考。但是在配置完成后,新建一个maven工程,一直报错,解决很久没有成功。

    今天学习时间:12:21到17:21  21:03到23:32

  • 相关阅读:
    [科普]DNS相关的攻击介绍
    php过滤函数
    robots.txt 文件指南
    【转】mysql函数
    java入门篇17 -- JDBC编程
    java入门16 -- http编程
    java入门篇14 --- tcp/udp
    java入门篇13 -- 多线程
    java入门篇12 --- IO操作
    java入门篇11 --- 集合
  • 原文地址:https://www.cnblogs.com/buyaoya-pingdao/p/15057922.html
Copyright © 2011-2022 走看看