zoukankan      html  css  js  c++  java
  • hadoop 三台主机环境搭建详细记录

    hadoop 三台主机环境搭建详细记录

    自己搭建的操作记录,

    太详细了,,感觉就有些罗嗦了。。。

    下面开始:

    分别安装三台centos系统:
     
    系统安装完成后,使用的root用户搭建的没有创建其它用户;
     
    1、修改主机名称:
     
        vim /etc/sysconfig/network
     
                 
     
    注意:三台主机都需要修改 ,
            可以修改成 hadoop1、hadoop2、hadoop3,
            或修改成:master、slave1、slave2
            或修改成:master.hadoop、slave1.hadoop、slave2.hadoop
    修改完成后重启服务:service network restart
     
            第一台主机:
            第二台主机:
     
            第三台主机:
     
    2、修改hosts文件:vim /etc/hosts
                
                三台主机都需要修改
     
    3、配置ssh ,三台主机免登录访问
        开户ssh服务使用命令:service sshd start  
        或用setup 中找到service 将sshd打开(开机启动)
            ssh-keygen -t rsa(或执行ssh-keygen -t dsa -P '' -f ~/.ssh/id_dsa )

        在/root/.ssh路径下 cp id_rsa.pub  authorized_keys(或cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys)

            chmod 700 ~/.ssh

            chmod 600 ~/.ssh/authorized_keys

    把各个节点的authorized_keys的内容收集到一起,拷贝加入到每个节点的此文件中,然后就可以免密码彼此ssh连入;

    步骤如下:

                    

                用 ssh-keygen -t rsa命令分别在其他两台主机也执行后

                 
    收集id_rsa.pub里面的内容,放入生成的authorized_keys文件中
     
    保存修改后,这时就可以 ssh 当前主机了 :ssh localhost,或 ssh master(当前主机host文件)
            
    ssh slave1  或 ssh slave2  连接主另外两主机,这里还需要输入密码的:
            
        
    这时只需要 再执行:
    scp  /root/.ssh/authorized_keys slave1:~/.ssh
    scp  /root/.ssh/authorized_keys slave2:~/.ssh
    这是将 authorized_keys文件复制到另外 slave1 和 slave2 节点上;
        
        
     
    4、安装JDK:
        我放到了/opt/目录下面
        首面赋权限:   chmod u+x jdk-6u38-linux-x64.bin 
        
        然后执行安装:sudo -s ./jdk-6u38-linux-x64.bin 
        
     
        安装完成后,配置环境变量:修改 /etc/profile(全局变量,或修改vi ~/.bash_profile)添加:
    export JAVA_HOME=/opt/jdk1.6.0_38
    export PATH=$PATH:$JAVA_HOME/bin
     
    然后使之生效:source /etc/profile
        
    验证是否配置成功:which java
     
    JDK安装配置验证成功后,这时只需要装 安装目录通过scp复制到 其他两台主机 并修改相同的环境变量即可:
    待复制完成后,修改slave1主机的profile文件:
    vim /etc/profile,添加:
    export JAVA_HOME=/opt/jdk1.6.0_38
    export PATH=$PATH:$JAVA_HOME/bin
    最后使之生效:source /etc/profile
     
    5、安装 hadoop:
     
        a、修改环境变量:/opt/hadoop-1.0.2/conf/hadoop-env.sh文件
                
     
        b、修改/opt/hadoop-1.0.2/conf/目录下面的 master和 slave两个文件 :
                master文件内修改为 做为主节点的 master(hosts文件件内主IP对应的名子)
                slave文件内,为两个从节点的名子
            
     
        c、修改core-site.xml添加如下内容:
            
     
     
        d、修改hfds-site.xml文件:
            
     
        e、修改 mapred-site.xml
            
     
        f、把Hadoop的安装路径添加到"/etc/profile"中,修改"/etc/profile"文件(配置java环境变量的文件),将以下语句添加到末尾,并使其有效(注意三台主机都需要)
    # set hadoop path
    export HADOOP_HOME=/opt/hadoop
    export PATH=$PATH:$HADOOP_HOME/bin
    修改完成后,使之生效:source /etc/profile
                
     
     
     
        g、在/opt/目录下面创建 cloud文件夹,及其下面几个目录(注意三台主机都需要)
            
     
        h、将配置好的hadoop通过scp复制到其他两个主机,在相同的目录:
            scp -r /opt/hadoop slave1:/opt/
            scp -r /opt/hadoop slave2:/opt/
     
            
    至此 hadoop 配置完成了
     
    6、格式化 namenode : hadoop namenode -format
        
     
    这里注意:主机名 (hostname)一定要与 hosts表里面配置的 ip对应的主机名相同,否则格式化时,会报错,提示找不到主机:STARTUP_MSG:   host = java.net.UnknownHostException: master.hadoop:  master.hadoop ;
     SHUTDOWN_MSG: Shutting down NameNode at java.net.UnknownHostException:  master.hadoop  master.hadoop 
    另:停到三个节点的防火墙 service iptables stop;
     
      7、启动 start-all.sh
        
    8、验证hadoop
     
      (1)验证方法一:用"jps"命令
     
     
      (2)验证方式二:用"hadoop dfsadmin -report"
     1)访问"http//:master:50030"
     
      2)访问"http//:master:50070"
  • 相关阅读:
    H5页面尺寸兼容rem
    Mysql索引、explain执行计划
    mysql物理结构
    mysql 架构
    excel 写
    好的开源项目
    批量插入大量数据
    文件下载回显
    shardingsphere 实现 springboot集成 多数据源
    前后端代码特殊符号乱码问题
  • 原文地址:https://www.cnblogs.com/cesar2008/p/hadoop.html
Copyright © 2011-2022 走看看