zoukankan      html  css  js  c++  java
  • Hadoop安装-部署-测试

    一:准备Linux环境[安装略]
            a.修改主机名
                    vim /etc/sysconfig/network
                    NETWORKING=yes
                    HOSTNAME=kevin1
             b.修改IP(通过修改配置文件)
                     vim /etc/sysconfig/network-scripts/ifcfg-eth0        
                            DEVICE="eth0"
                            BOOTPROTO="static"               
                            HWADDR="00:0C:29:3C:BF:E7"
                            IPV6INIT="yes"
                            NM_CONTROLLED="yes"
                            ONBOOT="yes"
                            TYPE="Ethernet"
                            UUID="ce22eeca-ecde-4536-8cc2-ef0dc36d4a8c"
            IPADDR="192.168.1.118"                                  
    NETMASK="255.255.255.0"          
                      GATEWAY="192.168.1.1"                                    
            c.修改主机名和IP的映射关系
                    vim /etc/hosts          192.168.1.118        kevin1
            d.关闭防火墙
                      防火墙状态     service iptables status
                 关闭防火墙     service iptables stop
                      查看防火墙开机启动状态    chkconfig iptables --list
                      关闭防火墙开机启动        chkconfig iptables off
       e.重启linux  reboot
    二:安装JDK
            a.上传        
            b.解压jdk
                    创建文件夹 mkdir /soft/
                    解压 tar -zxvf tar包 -C /soft/
            c.将java添加到环境变量中
                    vim /etc/profile
                    #在文件最后添加
                    export JAVA_HOME=/root/soft/jdk1.8.0_71                
    export PATH=$PATH:$JAVA_HOME/bin
            d.让配置即可生效   source /etc/profile                
    三:安装配置hadoop-2.6.5
            注意:hadoop2.x配置文件$HADOOP_HOME/etc/hadoop
    伪分布式需要修改5个配置文件
            a.配置hadoop
              1.hadoop-env.sh  
    vim hadoop-env.sh  修改export JAVA_HOME=/root/soft/jdk1.8.0_71
              2.core-site.xml
                         <property>  <!—指定HDFS的主节点(NameNode)的地址->
                                  <name>fs.defaultFS</name>
                                  <value>hdfs://kevin1:9000</value>
                        </property>
                               <property>    <!-指定hadoop运行时产生文件的存储目录 ->
                                 <name>hadoop.tmp.dir</name>
                                 <value>/root/soft/hadoop-2.6.5/tmp</value>
            </property>
             3.hdfs-site.xml
                    <property>   <!-- 指定HDFS副本的数量 -->
                            <name>dfs.replication</name>
                            <value>1</value>
         </property>
             4.mapred-site.xml(mv mapred-site.xml.template mapred-site.xml)
                    vim mapred-site.xml
                    <property>  <!-- 指定mr运行在yarn上 –->
                            <name>mapreduce.framework.name</name>
                            <value>yarn</value>
          </property>
              5.yarn-site.xml 
                    <property>        <!--指定YARN的ResourceManager地址-->
                              <name>yarn.resourcemanager.hostname</name>
                              <value>kevin1</value>
           </property>
                      <property>   <!--mapreduce获取数据的方式-->
                               <name>yarn.nodemanager.aux-services</name>
                               <value>mapreduce_shuffle</value>
            </property>
            

    b.将hadoop添加到环境变量 vim /etc/proflie
             export JAVA_HOME=/root/soft/jdk1.8.0_71
             export HADOOP_HOME=/root/soft/hadoop-2.6.5
             export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
    c.让配置文件及时生效:source /etc/profile
            
            d.格式化namenode(是对namenode进行初始化)
                    hdfs namenode -format                
            e.启动hadoop
                    先启动HDFS sbin/start-dfs.sh                        
                    再启动YARN sbin/start-yarn.sh                                
            f.验证是否启动成功
                    使用jps命令验证,获取到以下进程证明启动成功
                      27408 NameNode
                      28218 Jps
                      27643 SecondaryNameNode
                      28066 NodeManager
                      27803 ResourceManager
                      27512 DataNode
       g.在浏览器中验证
                    http://192.168.135.129:50070 (HDFS管理界面)
                    http://192.168.135.129:8088  (MR管理界面)
       h.通过上传下载进行测试HDFS功能
          上传命令:hadoop fs –put 文件 hdfs:192.168.135.129:9000/tomcat7
          下载命令:hadoop fs –get hdfs:192.168.135.129:9000/tomcat7 地址
          第2种方式下载:通过浏览器直接点击(可能映射不到)
              添加linux主机名和IP的映射关系
                 C:WindowsSystem32driversetchosts添加
                  192.168.135.129  kevin1

    i.测试MR
      1.cd  /root/soft/hadoop-2.6.5/share/hadoop/mapreduce
        vim gs.txt  添加相关内容并保存退出
       2.把该文件上传至hdfs上
          Hadoop fs –put 文件路径 hdfs路径
    hadoop fs -put goodStudy.txt hdfs://kevin1:9000/gs
          查看是否上传成功:hadoop fs –ls hdfs路径
       3.运行jar测试(命令)
          Hadoop jar hadoop-mapreduce-examples-2.6.5.jar wordcount hdfs:// computer1:9000/gs hdfs://kevin1:9000/gsCount
       4.浏览器打开文件下载查看统计次数

  • 相关阅读:
    Java常用的技术网站
    Eclipse启动Tomcat时发生java.lang.IllegalArgumentException: <sessionconfig> element is limited to 1 occurrence
    MySQL存储过程动态SQL语句的生成
    GitHub起步创建第一个项目
    安装Java的IDE Eclipse时出现java.net.SocketException,出现错误Installer failed,show.log
    转:POI操作Excel导出
    POI完美解析Excel数据到对象集合中(可用于将EXCEL数据导入到数据库)
    Java后台发送邮件
    (转)指针函数与函数指针的区别
    ROS下创建第一个节点工程
  • 原文地址:https://www.cnblogs.com/zeussbook/p/8683192.html
Copyright © 2011-2022 走看看