1. 单独启动和关闭hadoop服务
-
启动名称节点
#hadoop-daemon.sh start namenode -
启动数据节点
#hadoop-daemons.sh start datanode slave -
启动secondarynamenode
#hadoop-daemon.sh start secondarynamenode -
启动resourcemanager
#yarn-daemon.sh start resourcemanager -
启动nodemanager
#bin/yarn-daemons.sh start nodemanager -
停止数据节点
#hadoop-daemons.sh stop datanode
2. 常用的命令
-
创建目录
#hdfs dfs -mkdir /input -
查看
#hdfs dfs -ls -
递归查看
#hdfs dfs ls -R -
上传
#hdfs dfs -put -
下载
#hdfs dfs -get -
删除
#hdfs dfs -rm -
从本地剪切粘贴到hdfs
#hdfs fs -moveFromLocal /input/xx.txt /input/xx.txt -
从hdfs剪切粘贴到本地
#hdfs fs -moveToLocal /input/xx.txt /input/xx.txt -
追加一个文件到另一个文件到末尾
#hdfs fs -appedToFile ./hello.txt /input/hello.txt -
查看文件内容
#hdfs fs -cat /input/hello.txt -
显示一个文件到末尾
#hdfs fs -tail /input/hello.txt -
以字符串的形式打印文件的内容
#hdfs fs -text /input/hello.txt -
修改文件权限
#hdfs fs -chmod 666 /input/hello.txt -
修改文件所属
#hdfs fs -chown liuyao.liuyao /input/hello.txt -
从本地文件系统拷贝到hdfs里
#hdfs fs -copyFromLocal /input/hello.txt /input/ -
从hdfs拷贝到本地
#hdfs fs -copyToLocal /input/hello.txt /input/ -
从hdfs到一个路径拷贝到另一个路径
#hdfs fs -cp /input/xx.txt /output/xx.txt -
从hdfs到一个路径移动到另一个路径
#hdfs fs -mv /input/xx.txt /output/xx.txt -
统计文件系统的可用空间信息
#hdfs fs -df -h / -
统计文件夹的大小信息
#hdfs fs -du -s -h / -
统计一个指定目录下的文件节点数量
#hadoop fs -count /aaa -
设置hdfs的文件副本数量
#hadoop fs -setrep 3 /input/xx.txt