zoukankan      html  css  js  c++  java
  • Hadoop笔记之DFS扩容

          不经意,实验室的Hadoop集群也运行了一年多了,数据量和log都在日增。最近准备开始新的项目,于是简单地给集群加几块硬盘,来做些地学数据挖掘的工作。Hadoop扩容是非常简单的事情。具体步骤如下:

      1.增加我们的硬件,在终端用如下命令查看,系统device的情况。

    fdisk -l  

    能够查看到各个硬盘(光驱、NFS等)的详细情况。具体的参数意义请参考http://linux.about.com/od/commands/l/blcmdl8_fdisk.htm

      2.由于是新增加的设备,需要将其格式化成为我们所需要的文件系统类型(ext3,ext4等),我们通常使用mkfs命令来实现,具体参数意义还请参考

    http://linux.about.com/od/commands/l/blcmdl8_mkfs.htm格式化成为ext3文件系统,命令如下:

    # mkfs -t ext3 -c /dev/devicesnames 

     3.这一步主要是将格式化之后的mount到HDFS的数据目录下。首先,使用vi或者emcas查看我们的Hadoop集群的${hadoop-home}/conf/hdfs-site.xml文件,其中的dfs.data.dir属性所设定的目录。如果该属性用final标签固定的,那么新增一个目录,不会被作业配置覆盖(除非namenode-format?)。因而,我们只将刚刚的设备挂靠到现有的目录下。我们的部分目录如下:

    /dm1/hdfs/Data,/dm2/hdfs/Data

     使用如下命令分别将设备mount到各个目录下

    mount /dev/device1  /dm1/hdfs/Data 
    ...

     4. 修改/etc/fstab文件,在文件后面加上如下一行,使得系统启动的时候自动挂载新设备。

    /dev/device1 /dm1/hdfs/Data ext3 defaults 1 2

     5. 在${hadoop-home}/bin/hadoop 使用dfs -report命令可以马上看到新增的DFS容量。

     

     

  • 相关阅读:
    单元测试之道读书笔记(七)
    单元测试之道读书笔记(六)
    单元测试之道读书笔记(五)
    单元测试之道读书笔记(三)
    技术网站推荐
    CentOS7部署Haproxy 1.7.2
    Centos7.0配置MySQL主从服务器
    Centos7.0安装mysql5.6
    centos7配置Java环境
    Centos6.5 DNS配置
  • 原文地址:https://www.cnblogs.com/ventlam/p/2442937.html
Copyright © 2011-2022 走看看