1、格式化系统
hadoop namenode -format
2、put 上传 ()
hadoop fs -put //hdfs dfs -put完全一样 hdfs dfs(和hadoop fs等价)
eg:hadoop fs -mkdir -p /user/hadoop/data
hdfs dfs -put 1.txt . (点相当于默认路径)
put===copyFromLocal
3、重命名
hdfs dfs -mv ./1.txt ./2.txt (最好使用全部路径)
4、下载
get === copyToLocal
hdfs dfs -get ./1.txt ./
5、移动到hdfs
hdfs dfs -moveFromLocal 1.txt
从hdfs移动到本地未实行
6、删除文件(或目录)
hdfs dfs -rm /user/hadoop/needDelete
8、复制 -cp
7、创建文件目录
hadoop fs -mkdir /usr/hadoop/newDir
9、在hadoop中不是root拥有超级管理员权限,
识别权限是靠用户名称的,hadoop中文件属于哪个用户,那个用户就有超级管理员权限,超级用户是namenode进程的标识
-chmod 改变文件权限(与linux类似)
-chown 改变用户和组
10、查询集群的配置方式
hdfs getconf [-namenodes|-secondaryNameNodes|-backupNodes|-includeFile|-excludeFile|-nnRpcAddresses|-confKey [key]]
11、安全模式操作
hdfs dfsadmin -safemode enter 进入安全模式
hdfs dfsadmin -safemode enter 进入安全模式(手动进入,手动退出)
hdfs dfsadmin -safemode leave 退出安全模式
hdfs dfsadmin -dafemode wait 等待安全模式
12、更新NN、更新RM节点
hdfs dfsadmin -refreshNodes
hdfs dfsadmin -help refreshNodes //查看帮助
yarn rmadmin -refreshNodes