zoukankan      html  css  js  c++  java
  • Windows7单机部署Hadoop

    • 检查/安装JDK1.8

        这个安装及环境变量的配置就不再赘述了。

        

    • 下载Hadoop包

       下载地址是http://archive.apache.org/dist/hadoop/core/    我这里选择的是2.5.1的版本

                 

    • 解压Hadoop包,并添加环境变量。

        将上面下载好的Hadoop包解压到一个目录,因为后期要上传数据,建议选择一个剩余存储空间比较大的目录。

        

        设置环境变量 HADOOP_HOME="F:hadoophadoop-2.5.1"

        

        将该路径"%HADOOP_HOME%in"添加到系统路径path中

        

    • 下载window util for hadoop

       下载地址是:https://codeload.github.com/gvreddy1210/bin/zip/master,注意该工具的版本与Hadoop版本的需要兼容,下载完成后解压覆盖到上述路径的bin目录下,例如:F:hadoophadoop-2.5.1in。

    • 创建DataNode和NameNode

        创建 Data目录和Name目录,用来存储数据,例如:F:hadoophadoop-2.5.1datadatanode和F:hadoophadoop-2.5.1data amenode。

    • 修改Hadoop相关的配置文件

       主要修改四个配置文件:core-site.xml, hdfs-site.xml, mapred-site.xml, yarn-site.xml,,这四个文件的路径为:F:hadoophadoop-2.5.1etchadoop。修改的 内容如下:

      • core-site.xml
    <configuration>
        <property>
            <name>fs.defaultFS</name>
            <value>hdfs://localhost:9000</value>
        </property>
    </configuration>
      • hdfs-site.xml
    <configuration>
        <property>
            <name>dfs.replication</name>
            <value>1</value>
        </property>
        <property>
            <name>dfs.namenode.name.dir</name>
            <value>/F:/hadoop/hadoop-2.5.1/data/namenode</value>
        </property>
        <property>
            <name>dfs.datanode.data.dir</name>
            <value>/F:/hadoop/hadoop-2.5.1/data/datanode</value>
        </property>
    </configuration>
      • mapred-site.xml
    <configuration>
      <property>
            <name>mapreduce.framework.name</name>
            <value>yarn</value>
        </property>
    </configuration>
      • yarn-site.xml
    <configuration>
    
    <!-- Site specific YARN configuration properties -->
        <property>
            <name>yarn.nodemanager.aux-services</name>
            <value>mapreduce_shuffle</value>
        </property>
        <property>
            <name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>
            <value>org.apache.hadoop.mapred.ShuffleHandler</value>
        </property>
        <property>
            <name>yarn.scheduler.minimum-allocation-mb</name>
            <value>1024</value>
        </property>
        <property>
            <name>yarn.nodemanager.resource.memory-mb</name>
            <value>4096</value>
        </property>
        <property>
            <name>yarn.nodemanager.resource.cpu-vcores</name>
            <value>2</value>
        </property>
    
    </configuration>

        注意:注意把上面涉及的路径改成你自己的路径。

    • 初始化节点

      进入到hadoopin目录下,执行命令:hadoop namenode -format

       

    • 启动Hadoop

      完成上面的初始化工作后,就可以启动Hadoop了,进入到hadoopsbin目录下,执行命令:start-all(关闭命令是 stop-all)

      

      出现下面四个窗口后,说明开始启动了

      

    •  检查是否启动成功

      执行命令 jsp

      

      出现以上几个java进程,说明启动成功了。

      HDFS文件系统地址:http://localhost:50070

      

      至此部署完成。

  • 相关阅读:
    Swift ARC 自动引用计数
    Swift 值类型和引用类型的内存管理
    Swift 栈和堆
    Swift 命令行输入输出
    在 OC 中调用 Swift 代码
    在 Swift 中调用 OC 代码
    Swift 类型桥接
    Swift 与 C 语言混合编程
    Swift Precondition 预处理
    Swift Assert 断言
  • 原文地址:https://www.cnblogs.com/mohanchen/p/10752528.html
Copyright © 2011-2022 走看看