zoukankan      html  css  js  c++  java
  • 大数据学习之hadoop伪分布式集群安装(一)

    hadoop的基本概念:

    1. Hadoop是一个由Apache基金会所开发的分布式系统基础架构。

    2. 用户可以在不了解分布式底层细节的情况下,开发分布式程序。充分利用集群的威力进行高速运算和存储。

    3. Hadoop实现了一个分布式文件系统(Hadoop Distributed File System),简称HDFS。HDFS有高容错性的特点,并且设计用来部署在低廉的(low-cost)硬件上;而且它提供高吞吐量(high throughput)来访问应用程序的数据,适合那些有着超大数据集(large data set)的应用程序。HDFS放宽了(relax)POSIX的要求,可以以流的形式访问(streaming access)文件系统中的数据。

    4. Hadoop的框架最核心的设计就是:HDFS和MapReduce。HDFS为海量的数据提供了存储,则MapReduce为海量的数据提供了计算。

    准备搭建环境:

      1.选择合适的操作系统(linux)和语言(java)。  

      2.准备虚拟机:我的电脑是windows系统还要玩游戏,当然要准备一个虚拟机。虚拟机选择VMware Workstation。首先创建新的虚拟机,分配好内存和硬盘,网络适配器调为VMNET8模式配置,方便以后对网络的使用。


    3.安装操作系统:首先得要安装linux系统吧,因为linux系统有太多可选择了,例如最著名的RedHat咱中国人开发的红旗Linux,Ubuntu、Fedora、CentOS等等,因为学习,一切为了有更多资料,安装CentOS6.4这个版本的系统。

    4.设置网络:点击虚拟机的编辑-虚拟网络编辑器,设置子网IP和子网掩码。子网IP:

       192.168.17.0 子网掩码:255.255.255.0


    5.在系统中不要用root账号,权限太大,不安全,在实际生产环境中也不会用到root账号。创建名字为hadoop的用户,登录进去。设置网络使用和虚拟机同一子网上的IP,便于本地与虚拟机的交互通信。

    6.使用Securecrt连接上虚拟机,方便在本地直接通过命令操作虚拟机。用sudo vi /etc/sysc onfig/network打开系统文件修改主机名和IP的映射关系,保存后source /etc/profile刷新配置立即生效。关闭防火墙,因为在内网环境而且学习使用,对每个端口进行配置太麻烦,

    #查看防火墙状态  service iptables status

    #关闭防火墙 service iptables stop

    #查看防火墙开机启动状态 chkconfig iptables --list

    #关闭防火墙开机启动 chkconfig iptables off

    给hadoop赋予root账号权限

    重启linux系统

    7.使用SecureFx将要安装的软件包传到虚拟机,连接上虚拟机后,把软件包直接拖到hadoop文件夹下

    8.创建一个app文件夹将解压的文件都统一放在这里(怎么创建文件夹,解压需要学习Linux基本操作,这里不多说)。

    9.方便每次直接使用,需要配置环境变量。

       ①配置java的jdk环境变量:命令vim /etc/profile

          #在文件最后添加

    export JAVA_HOME=/home/hadoop/app/jdk-7u_65-i585

    export PATH=$PATH:$JAVA_HOME/bin

    #刷新配置

    source /etc/profile

      ②配置hadoop,伪分布式需要修改5个配置文件,查找到这五个文件.

                    1:sudo vim hadoop-env.sh

    #第27行

    export JAVA_HOME=/home/hadoop/app/jdk1.7.0_65

                    2:sudo vim core-site.xml                

                    <!-- 指定HADOOP所使用的文件系统schema(URI),HDFS的老大(NameNode)的地址 -->

    <property>

    <name>fs.defaultFS</name>

    <value>hdfs://weekend110:9000</value>

    </property>

    <!-- 指定hadoop运行时产生文件的存储目录 -->

    <property>

    <name>hadoop.tmp.dir</name>

    <value>/home/hadoop/hadoop-2.4.1/data</value>

                    </property>

                    3:sudo vim hdfs-site.xml   

    <!-- 指定HDFS副本的数量 -->虚拟机中配置一个就行了,多了浪费

    <property>

    <name>dfs.replication</name>

    <value>1</value>

                    </property>

                    4: 将mapred-site.xml.template重命名 为mapred-site.xml

                    (mv mapred-site.xml.template mapred-site.xml)

    mv mapred-site.xml.template mapred-site.xml

    vim mapred-site.xml

    <!-- 指定mr运行在yarn上 -->

    <property>

    <name>mapreduce.framework.name</name>

    <value>yarn</value>

                    </property>

                    5: sudo vi yarn-site.xml

    <!-- 指定YARN的老大(ResourceManager)的地址 -->

    <property>

    <name>yarn.resourcemanager.hostname</name>

    <value>weekend-1206-01</value>

                    </property>

    <!-- reducer获取数据的方式 -->

                    <property>

    <name>yarn.nodemanager.aux-services</name>

    <value>mapreduce_shuffle</value>

                    </property>

          ③ 将hadoop添加到环境变量

            命令:sudo   vim /etc/proflie

            Shift+G直接跳到最后添加如下配置信息

    export JAVA_HOME=/home/hadoop/app/jdk1.7.0_65

    export HADOOP_HOME=/home/hadoop/hadoop-2.4.1

    export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

    刷新  source /etc/profile

    10: 格式化namenode(是对namenode进行初始化,像U盘一样第一次使用需要格式化)

            hdfs namenode -format (hadoop namenode -format)

    11:启动hadoop

                    先启动HDFS

                        start-dfs.sh

    再启动YARN

        start-yarn.sh

    12.执行命名: jps验证是否启动成功。以为本机原来已经启动故有标红信息。最后看到hadoop启动成功。

     

      

  • 相关阅读:
    XSS的原理分析与解剖:第四章(编码与绕过)*******************未看**********************
    XSS的原理分析与解剖:第三章(技巧篇)**************未看*****************
    XSS的原理分析与解剖(第二篇)
    XSS的原理分析与解剖
    sqlmap用户手册详解【实用版】
    mysql注入篇
    MySQL中函数CONCAT及GROUP_CONCAT
    access注入篇+sqlmap
    搭建本地 8.8 W 乌云漏洞库
    fiddler对浏览器、app抓包及证书安装
  • 原文地址:https://www.cnblogs.com/SamllBaby/p/5695392.html
Copyright © 2011-2022 走看看