zoukankan      html  css  js  c++  java
  • Shell命令

    具体操作:

    hadoop fs -ls file:/// 访问是本地系统
    hadoop fs -ls hdfs://node-1:8020/ 访问是hdfs文件系统
    hadoop fs -ls gfs://node-1:9999/ 访问是谷歌文件系统
    hadoop fs -ls / 如果不指定文件系统的协议 就会访问默认文件系统 fs.defaultFS

    1.1. Shell 命令选项

    选项名称

    使用格式

    含义

    -ls

    -ls <路径>

    查看指定路径的当前目录结构

    -lsr

    -lsr <路径>

    递归查看指定路径的目录结构

    -du

    -du <路径>

    统计目录下个文件大小

    -dus

    -dus <路径>

    汇总统计目录下文件()大小

    -count

    -count [-q] <路径>

    统计文件()数量

    -mv

    -mv <源路径> <目的路径>

    移动

    -cp

    -cp <源路径> <目的路径>

    复制

    -rm

    -rm [-skipTrash] <路径>

    删除文件/空白文件夹

    -rmr

    -rmr [-skipTrash] <路径>

    递归删除

    -put

    -put <多个linux上的文件> <hdfs路径>

    上传文件

    -copyFromLocal

    -copyFromLocal <多个linux上的文件> <hdfs路径>

    从本地复制

    -moveFromLocal

    -moveFromLocal <多个linux上的文件> <hdfs路径>

    从本地移动

    -getmerge

    -getmerge <源路径> <linux路径>

    合并到本地

    -cat

    -cat <hdfs路径>

    查看文件内容

    -text

    -text <hdfs路径>

    查看文件内容

    -copyToLocal

    -copyToLocal [-ignoreCrc] [-crc] [hdfs源路径] [linux目的路径]

    从本地复制

    -moveToLocal

    -moveToLocal [-crc] <hdfs源路径> <linux目的路径>

    从本地移动

    -mkdir

    -mkdir <hdfs路径>

    创建空白文件夹

    -setrep

    -setrep [-R] [-w] <副本数> <路径>

    修改副本数量

    -touchz

    -touchz <文件路径>

    创建空白文件

    -stat

    -stat [format] <路径>

    显示文件统计信息

    -tail

    -tail [-f] <文件>

    查看文件尾部信息

    -chmod

    -chmod [-R] <权限模式> [路径]

    修改权限

    -chown

    -chown [-R] [属主][:[属组]] 路径

    修改属主

    -chgrp

    -chgrp [-R] 属组名称路径

    修改属组

    -help

    -help [命令选项]

    帮助

     

    1.2. Shell常用命令介绍

    -ls

    使用方法:hadoop fs -ls [-h] [-R] <args>

    功能:显示文件、目录信息。

    示例:hadoop fs -ls /user/hadoop/file1

    -mkdir

    使用方法:hadoop fs -mkdir [-p] <paths>

    功能:在hdfs上创建目录,-p表示会创建路径中的各级父目录。

    示例:hadoop fs -mkdir –p /user/hadoop/dir1

    -put
    使用方法:hadoop fs -put [-f] [-p] [ -|<localsrc1> .. ]. <dst>

    功能:将单个src或多个srcs从本地文件系统复制到目标文件系统。

    -p:保留访问和修改时间,所有权和权限。

    -f:覆盖目的地(如果已经存在)

    示例:hadoop fs -put -f localfile1 localfile2 /user/hadoop/hadoopdir

    -get

    使用方法:hadoop fs -get [-ignorecrc] [-crc] [-p] [-f] <src> <localdst>

    -ignorecrc:跳过对下载文件的CRC检查。

    -crc:为下载的文件写CRC校验和。

    功能:将文件复制到本地文件系统。

    示例:hadoop fs -get hdfs://host:port/user/hadoop/file localfile

    -appendToFile

    使用方法:hadoop fs -appendToFile <localsrc> ... <dst>

    功能:追加一个文件到已经存在的文件末尾

    示例:hadoop fs -appendToFile localfile  /hadoop/hadoopfile

    -cat  

    使用方法:hadoop fs -cat [-ignoreCrc] URI [URI ...]

    功能:显示文件内容到stdout

    示例:hadoop fs -cat  /hadoop/hadoopfile

    -tail

    使用方法:hadoop fs -tail [-f] URI

    功能:将文件的最后一千字节内容显示到stdout

    -f选项将在文件增长时输出附加数据。

    示例:hadoop  fs  -tail  /hadoop/hadoopfile

    -chgrp

    使用方法:hadoop fs -chgrp [-R] GROUP URI [URI ...]

    功能:更改文件组的关联。用户必须是文件的所有者,否则是超级用户。

    -R将使改变在目录结构下递归进行。

    示例:hadoop fs -chgrp othergroup /hadoop/hadoopfile

    -chmod

    功能:改变文件的权限。使用-R将使改变在目录结构下递归进行。

    示例:hadoop  fs  -chmod666  /hadoop/hadoopfile

    -chown

    功能:改变文件的拥有者。使用-R将使改变在目录结构下递归进行。

    示例:hadoop  fs  -chownsomeuser:somegrp   /hadoop/hadoopfile

    -copyFromLocal

    使用方法:hadoop fs -copyFromLocal <localsrc> URI

    功能:从本地文件系统中拷贝文件到hdfs路径去

    示例:hadoop  fs  -copyFromLocal  /root/1.txt/

    -copyToLocal      

    功能:从hdfs拷贝到本地

    示例:hadoop fs -copyToLocal /aaa/jdk.tar.gz

    -cp              

    功能:从hdfs的一个路径拷贝hdfs的另一个路径

    示例: hadoop  fs  -cp/aaa/jdk.tar.gz  /bbb/jdk.tar.gz.2

    -mv                     

    功能:在hdfs目录中移动文件

    示例: hadoop  fs  -mv/aaa/jdk.tar.gz  /

    -getmerge    

    功能:合并下载多个文件

    示例:比如hdfs的目录 /aaa/下有多个文件:log.1, log.2,log.3,...

    hadoop fs -getmerge /aaa/log.*  ./log.sum

    -rm                

    功能:删除指定的文件。只删除非空目录和文件。-r 递归删除。

    示例:hadoop fs -rm -r /aaa/bbb/

    -df               

    功能:统计文件系统的可用空间信息

    示例:hadoop  fs  -df-h  /

    -du

    功能:显示目录中所有文件大小,当只指定一个文件时,显示此文件的大小。

    示例:hadoop fs -du /user/hadoop/dir1

    -setrep                

    功能:改变一个文件的副本系数。-R选项用于递归改变目录下所有文件的副本系数。

    示例:hadoop fs -setrep -w 3 -R /user/hadoop/dir1

     

    • 注意事项: 可以通过该命令修改hdfs中文件副本个数 在企业中避免使用该操作
    • 进行副本设置修改的操作 需要hdfs集群配合文件进行数据复制 降低对外提供正常服务能力
    • 通常一批文件设置为几个副本 在上传前就需要决定好



  • 相关阅读:
    微服务简介
    Apache httpd.conf
    搭建PHP开发环境
    搭建Apache开发环境
    Swift 项目编译优化(一)
    用Flutter 写一个简单页面
    Sign In With Apple(一)(转)
    Xcode DeviceSupport
    MQTT初始篇笔记整理
    UITableView使用过程中可能遇到的问题
  • 原文地址:https://www.cnblogs.com/TiePiHeTao/p/affc62be20e9e5edfbe401985f623baf.html
Copyright © 2011-2022 走看看