zoukankan      html  css  js  c++  java
  • 使用vmware+Ubuntu搭建hadoop集群

    阅读须知

    本文旨在使用Vmware搭建Hadoop集群,如果你使用的是多台独立的、已安装linux操作系统的计算机搭建Hadoop集群的话,请直接从安装Hadoop 开始,否则,我建议你按照安装Vmware并创建Ubuntu虚拟机 创建虚拟机并安装ubuntu系统。文中假设的运行环境为:Ubuntu 18.04 Desktop,账户密码都为hadoop,如果你已创建虚拟机,请根据你的设置修改自行修改我文中的相关内容。

    下文中所有列出的指令建议逐句执行,以免发生错误!!!

    下文中所有列出的指令建议逐句执行,以免发生错误!!!

    下文中所有列出的指令建议逐句执行,以免发生错误!!!

    如果你使用的是Vmware虚拟机,建议你在完成每种模式的搭建后第一时间使用快照备份,以给留自己一条后路。

    本文选用的软件版本如下:

    • Ubuntu 18.04 Desktop

    • Hadoop-3.2.1

    • OpenJdk-8

    Hadoop三种运行模式的区别

    非分布式模式/本地模式

    该模式为Hadoop的默认模式,一旦你安装了Hadoop,在没有进行相关配置前,Hadoop运行的是本地模式,该模式下,Hadoop使用的是本地文件系统而不是分布式文件系统,且不会启动NameNode、DataNode、JobTracker、TaskTracker等守护进程。该模式用于对MapReduce程序的验证。

    伪分布式模式

    即Hadoop假装自己在全分布式模式下,与全分布式模式下Hadoop的守护进程在不同主机上运行不同,此时Hadoop的守护进程都在一台主机上运行。此时,Hadoop进程以分离的Java进程来运行,节点及作为NameNode也作为DataNode,同时,读取的是HDFS中的文件。

    全分布式模式

    Hadoop运行在多台主机(一个集群)中,每台主机都安装了OpenJDK和Hadoop,节点之间通过SSH进行联系。其中,一个节点作为主节点,其他节点要在主节点中注册才能加入集群。

    Java运行环境的选择

    由于Hadoop是运行在Java环境下的,所以如果Java运行环境版本与Hadoop版本不兼容,Hadoop会无法运行或者在运行的时候会产生问题,以下表格来自Hadoop的官方文档HadoopJavaVersions,你在选择jdk版本的时候充分考虑此表。

    Version Status Reported By
    oracle 1.7.0_15 Good Cloudera
    oracle 1.7.0_21 Good (4) Hortonworks
    oracle 1.7.0_45 Good Pivotal
    openjdk 1.7.0_09-icedtea Good (5) Hortonworks
    oracle 1.6.0_16 Avoid (1) Cloudera
    oracle 1.6.0_18 Avoid Many
    oracle 1.6.0_19 Avoid Many
    oracle 1.6.0_20 Good (2) LinkedIn, Cloudera
    oracle 1.6.0_21 Good (2) Yahoo!, Cloudera
    oracle 1.6.0_24 Good Cloudera
    oracle 1.6.0_26 Good(2) Hortonworks, Cloudera
    oracle 1.6.0_28 Good LinkedIn
    oracle 1.6.0_31 Good(3, 4) Cloudera, Hortonworks

    创建Hadoop用户

    创建一个名为hadoop的用户以进行hadoop安装。

    即使你不愿意创建hadoop用户,我也强烈建议你不要使用root用户来搭建hadoop环境,因为这可能带来安全问题。

    sudo addgroup hadoop
    sudo adduser --ingroup hadoop hadoop
    

    Adding user hadoop' ... Adding new user hadoop' (1000) with group hadoop' ... Creating home directory /home/hadoop' ...
    Copying files from `/etc/skel' ...
    Enter new UNIX password:
    Retype new UNIX password:
    passwd: password updated successfully
    Changing the user information for hadoop
    Enter the new value, or press ENTER for the default
    Full Name []:
    Room Number []:
    Work Phone []:
    Home Phone []:
    Other []:
    Is the information correct? [Y/n]

    安装Hadoop

    执行以下指令以安装hadoopopenjdk并配置Hadoop,在执行之前,在终端输入sudo -i并输入密码,以root身份运行以下指令。

    cd /home/hadoop
    wget https://mirrors.tuna.tsinghua.edu.cn/apache/hadoop/common/hadoop-3.2.1/hadoop-3.2.1.tar.gz # 下载hadoop安装包
    tar -zxf hadoop-3.2.1.tar.gz # 解压hadoop安装包
    mv ./hadoop-3.2.1 /usr/local/
    cd /usr/local
    mv ./hadoop-3.2.1 hadoop
    chown -R hadoop:hadoop ./hadoop # 更新文件夹所有者
    cd hadoop/
    apt-get update
    apt-get install -y openjdk-8-jdk openjdk-8-jre # 安装openjdk
    # 为hadoop指定JAVA_HOME
    # sed -i "s?export JAVA_HOME=${JAVA_HOME}?export JAVA_HOME=/usr/lib/jvm/java-11-openjdk-amd64/?g" ./etc/hadoop/hadoop-env.sh # 用于hadoop2
    echo "JAVA_HOME=/usr/lib/jvm/java-8-openjdk-amd64/" >> ./etc/hadoop/hadoop-env.sh
    echo "export JAVA_HOME=/usr/lib/jvm/java-8-openjdk-amd64/" >> /etc/bash.bashrc # 将JAVA_HOME写入环境变量
     # 将hadoop写入环境变量
    echo "export HADOOP_HOME=/usr/local/hadoop" >> /etc/bash.bashrc
    echo "export PATH=$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$PATH" >> /etc/bash.bashrc
    echo "export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop" >> /etc/bash.bashrc
    source /etc/bash.bashrc
    
    

    运行过程中你可以去泡杯茶喝,因为这个过程需要下载Hadoop和OpenJDK,会占用比较多的时间,下载速度取决于你的网络。

    关闭现有的终端,新开一个终端(目的是刷新环境变量),执行hadoop version。如果你的终端最后显示的内容类似如下,说明已经完成Hadoop的默认模式(非分布式模式/本地模式)的安装。

    Hadoop 3.2.1
    Source code repository https://gitbox.apache.org/repos/asf/hadoop.git -r b3cbbb467e22ea829b3808f4b7b01d07e0bf3842
    Compiled by rohithsharmaks on 2019-09-10T15:56Z
    Compiled with protoc 2.5.0
    From source with checksum 776eaf9eee9c0ffc370bcbc1888737
    This command was run using /usr/local/hadoop/share/hadoop/common/hadoop-common-3.2.1.jar
    

    以单机模式运行

    运行自带的mapreduce示例以检验单机模式可以正常运行。

    cd /usr/local/hadoop
    mkdir input
    cp etc/hadoop/*.xml input
    bin/hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-*.jar grep input output 'dfs[a-z.]+'
    cat output/*
    

    结果显示1 dfsadmin则你的hadoop已经正常完成单机mapreduce任务。

    安装openssh-server

    Hadoop要用到ssh进行通讯,所以要安装ssh的服务端,以允许外部主机通过ssh远程连接到本地主机。执行以下指令以安装ssh服务端:

    sudo apt-get install openssh-server -y
    

    如果你此时是通过ssh连接到主机的,很显然你是不需要进行这一步的。

    配置伪分布式模式

    修改配置文件

    Hadoop的配置文件位于/usr/local/hadoop/etc/hadoop/,完成配置伪分布式需要修改配置文件:core-site.xmlhdfs-site.xml

    如果你懒得修改文件,你可以使用以下指令直接使用我的配置文件:

    cd /usr/local/hadoop/etc/hadoop
    rm core-site.xml
    rm hdfs-site.xml
    wget https://gitee.com/focksor/hadoop-config/raw/master/Pseudo-Distributed/core-site.xml
    wget https://gitee.com/focksor/hadoop-config/raw/master/Pseudo-Distributed/hdfs-site.xml
    

    或者,你也可以手动修改:

    • core-site.xml内容修改为:
    <configuration>
        <property>
            <name>hadoop.tmp.dir</name>
            <value>file:/usr/local/hadoop/tmp</value>
            <description>更改临时目录以防止系统自动清空临时目录内的hadoop相关内容</description>
        </property>
        <property>
            <name>fs.defaultFS</name>
            <value>hdfs://localhost:9000</value>   
        </property>
    </configuration>
    
    • hdfs-site.xml内容修改为:
    <configuration>
        <property>
            <name>dfs.replication</name>
            <value>1</value>
            <description>数据块的副本数,在一台机器存放多副本是没有意义的</description>
        </property>
        <property>
            <name>dfs.namenode.name.dir</name>
            <value>file:/usr/local/hadoop/tmp/dfs/name</value>
            <description>本地磁盘用于存放fsimage文件的目录</description>
        </property>
        <property>
            <name>dfs.datanode.data.dir</name>
            <value>file:/usr/local/hadoop/tmp/dfs/data</value>
            <description>本地磁盘用于存放HDFS的block的目录</description>
        </property>
    </configuration>
    

    设置ssh免登录

    ssh-keygen -t rsa -P '' -f ~/.ssh/id_rsa
    cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys
    chmod 0600 ~/.ssh/authorized_keys
    

    上述命令会在~/.ssh/目录下生成ssh的公钥和私钥并将本机的公钥追加~/.ssh/authorized_keys内。

    如果正确完成,你可以执行以下指令以无密码的方式ssh连接到本机

    ssh localhost
    

    如果你第一次运行该指令,终端会提示你:

    Are you sure you want to continue connecting (yes/no)?

    应输入yes后回车。

    以伪分布式运行Hadoop

    以下指令会在本地运行一个MapReduce工作,如果你想用YARN来运行工作,可以参照YARN on Single Node

    cd /usr/local/hadoop/
    bin/hdfs namenode -format # 格式化文件系统
    sbin/start-dfs.sh # 启动NameNode和DataNode实例
    

    该步骤不会要求你输入密码,如果该步有让你输入密码,你应该返回上一节设置ssh免登录并确定你是否已正确完成。

    正确的输出结果应类似如下:

    hadoop@ubuntu:/usr/local/hadoop$ sbin/start-dfs.sh
    Starting namenodes on [localhost]
    Starting datanodes
    Starting secondary namenodes [ubuntu]
    ubuntu: Warning: Permanently added 'ubuntu' (ECDSA) to the list of known hosts.
    

    如果你的输出如下,表示你的jdk版本兼容性有问题(笔者在使用openjdk-11+hadoop-2.10.0进行测试的时候出现以下问题),请参考Java运行环境的选择做出合理的调整,当然,由于出现的是WARNING,你可以无视,但是会出现什么问题不好说。

    hadoop@ubuntu:/usr/local/hadoop$ sbin/start-dfs.sh
    WARNING: An illegal reflective access operation has occurred
    WARNING: Illegal reflective access by org.apache.hadoop.security.authentication.util.KerberosUtil (file:/usr/local/hadoop/share/hadoop/common/lib/hadoop-auth-2.10.0.jar) to method sun.security.krb5.Config.getInstance()
    WARNING: Please consider reporting this to the maintainers of org.apache.hadoop.security.authentication.util.KerberosUtil
    WARNING: Use --illegal-access=warn to enable warnings of further illegal reflective access operations
    WARNING: All illegal access operations will be denied in a future release
    Incorrect configuration: namenode address dfs.namenode.servicerpc-address or dfs.namenode.rpc-address is not configured.
    Starting namenodes on []
    localhost: starting namenode, logging to /usr/local/hadoop/logs/hadoop-hadoop-namenode-ubuntu.out
    localhost: starting datanode, logging to /usr/local/hadoop/logs/hadoop-hadoop-datanode-ubuntu.out
    Starting secondary namenodes [0.0.0.0]
    The authenticity of host '0.0.0.0 (0.0.0.0)' can't be established.
    ECDSA key fingerprint is SHA256:wFCc7FRsvL5nFsKgn2BLwS3sQBmjnWJkACM7wsWbvuk.
    Are you sure you want to continue connecting (yes/no)? yes
    0.0.0.0: Warning: Permanently added '0.0.0.0' (ECDSA) to the list of known hosts.
    0.0.0.0: starting secondarynamenode, logging to /usr/local/hadoop/logs/hadoop-hadoop-secondarynamenode-ubuntu.out
    WARNING: An illegal reflective access operation has occurred
    WARNING: Illegal reflective access by org.apache.hadoop.security.authentication.util.KerberosUtil (file:/usr/local/hadoop/share/hadoop/common/lib/hadoop-auth-2.10.0.jar) to method sun.security.krb5.Config.getInstance()
    WARNING: Please consider reporting this to the maintainers of org.apache.hadoop.security.authentication.util.KerberosUtil
    WARNING: Use --illegal-access=warn to enable warnings of further illegal reflective access operations
    WARNING: All illegal access operations will be denied in a future release
    

    如果你的输出如下:说明你使用了root账户进行操作,此时需要使用指令su hadoop切换到hadoop账户再进行上述操作。

    Starting namenodes on [localhost]
    ERROR: Attempting to operate on hdfs namenode as root
    ERROR: but there is no HDFS_NAMENODE_USER defined. Aborting operation.
    Starting datanodes
    ERROR: Attempting to operate on hdfs datanode as root
    ERROR: but there is no HDFS_DATANODE_USER defined. Aborting operation.
    Starting secondary namenodes [aliYun-focksor]
    ERROR: Attempting to operate on hdfs secondarynamenode as root
    ERROR: but there is no HDFS_SECONDARYNAMENODE_USER defined. Aborting operation.
    

    如果你的输出类似如下,说明你没有设置ssh免登录或者进行该操作时使用的不是hadoop账户,此时你需要使用hadoop账户再进行一次该操作。

    Starting namenodes on [localhost]
    localhost: Warning: Permanently added 'localhost' (ECDSA) to the list of known hosts.
    localhost: hadoop@localhost: Permission denied (publickey,password).
    Starting datanodes
    localhost: hadoop@localhost: Permission denied (publickey,password).
    Starting secondary namenodes [focksor]
    focksor: Warning: Permanently added 'focksor,192.168.232.156' (ECDSA) to the list of known hosts.
    focksor: hadoop@focksor: Permission denied (publickey,password).
    

    访问管理页面

    完成上述步骤后使用ubuntu虚拟机自带的网络浏览器firefox访问以下地址以查看NameNode信息:

    http://localhost:9870/
    

    如果你安装的是没有GUI界面的操作系统,你可以通过以下方式访问管理页面:

    • 在真实系统的浏览器访问如下虚拟机的ip地址+端口号:
    http://192.168.232.131:9870/
    

    如果你未知你的虚拟机的ip地址,可以参照Ubuntu18.04查看ip地址

    管理界面如下图所示

    注:该端口号(9870)对应的是hadoop3.x版本的管理界面,如果你使用的是hadoop2.x,应尝试访问端口(50070)

    配置全分布式模式(Hadoop集群)

    关闭伪分布式模式

    如果你在上一节中开启了伪分布式模式,执行以下指令以关闭服务并清空缓存:

    /usr/local/hadoop/sbin/stop-all.sh 
    rm -rf /usr/local/hadoop/tmp
    

    克隆出多台虚拟机

    将已经完成Hadoop安装(至少hadoop version可以运行)的虚拟机克隆出另外三台(如果你的电脑资源不足,至少克隆出一台),分别命名为hadoop2、hadoop3、hadoop4,此时我们就有了4台安装有Hadoop的虚拟机,我们以hadoop1作为主节点,其它作为子节点进行配置。

    如果你不了解Vmware克隆功能的使用方法,你可以参照使用Vmware克隆功能快速创建多台虚拟机

    注:如果你使用的是逻辑主机而不是虚拟机或无法进行克隆操作,你需要将其它主机配置好单机模式。

    注:如果你运行的是ubuntu Server,不要直接用克隆,否则你将进入火葬场。

    完成克隆后,我的虚拟机ip地址如下,下文所有指令都以我的虚拟机ip地址举例,你需要修改为你的虚拟机对应的ip地址。

    如果你不了解如何查看ip地址,你可以参照Ubuntu18.04查看ip地址

    下表中的hostname是便于我们分辨操作的是哪台机器设置的,在下文中会有相关设置指令,你可以先不用管。

    虚拟机 ip hostname
    hadoop1 192.168.232.131 master
    hadoop2 192.168.232.128 slave1
    hadoop3 192.168.232.132 slave2
    hadoop4 192.168.232.133 slave3

    设置ssh免登录以及hosts

    在对应虚拟机中执行以下指令以设置hosts和ssh无密码登录:

    在hadoop1中执行:

    su
    # 将下列ip地址改为你对应虚拟机的ip地址
    # 如果不设置hosts,hadoop能正常启动且jps都是正常的,但是管理界面看不到子节点
    MASTER_IP=192.168.232.131
    SLAVE1_IP=192.168.232.128
    SLAVE2_IP=192.168.232.132
    SLAVE3_IP=192.168.232.133
    echo "$MASTER_IP master" >> /etc/hosts
    echo "$SLAVE1_IP slave1" >> /etc/hosts
    echo "$SLAVE2_IP slave2" >> /etc/hosts
    echo "$SLAVE3_IP slave3" >> /etc/hosts
    
    su hadoop
    
    cd /usr/local/hadoop/
    
    bin/hdfs namenode -format # 格式化文件系统
    
    # 创建ssh密钥,如果你是已经按照上面的章节配置过ssh免登录再进行克隆的话,忽略下面三条指令
    ssh-keygen -t rsa -P '' -f ~/.ssh/id_rsa
    cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys
    chmod 0600 ~/.ssh/authorized_keys
    
    # 分发ssh公钥,执行过程中需要输入yes,有可能需要输入密码hadoop,你需要逐行执行下面的指令
    ssh-copy-id -i ~/.ssh/id_rsa.pub hadoop@slave1
    ssh-copy-id -i ~/.ssh/id_rsa.pub hadoop@slave2
    ssh-copy-id -i ~/.ssh/id_rsa.pub hadoop@slave3
    

    在hadoop2、hadoop3、hadoop4中执行下列指令:

    su hadoop
    
    cd /usr/local/hadoop
    rm -rf tmp
    
    # 创建ssh密钥
    ssh-keygen -t rsa -P '' -f ~/.ssh/id_rsa
    cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys
    chmod 0600 ~/.ssh/authorized_keys
    

    修改配置文件

    在主节点对应的虚拟机(hadoop1)中执行以下指令:

    # 修改配置文件,你也可以手动修改
    cd /usr/local/hadoop/etc/hadoop
    rm core-site.xml hdfs-site.xml mapred-site.xml yarn-site.xml 
    wget https://gitee.com/focksor/hadoop-config/raw/master/Cluster/core-site.xml
    wget https://gitee.com/focksor/hadoop-config/raw/master/Cluster/hdfs-site.xml
    wget https://gitee.com/focksor/hadoop-config/raw/master/Cluster/mapred-site.xml
    wget https://gitee.com/focksor/hadoop-config/raw/master/Cluster/yarn-site.xml
    
    echo slave1 > workers 
    echo slave2 >> workers
    echo slave3 >> workers
    
    # 分发配置文件文件到slave中
    cd /usr/local/hadoop/etc
    scp -r hadoop/ hadoop@slave1:/usr/local/hadoop/etc
    scp -r hadoop/ hadoop@slave2:/usr/local/hadoop/etc
    scp -r hadoop/ hadoop@slave3:/usr/local/hadoop/etc
    
    

    启动Hadoop

    在主节点对应的虚拟机hadoop1内输入下面指令以启动Hadoop,启动过程大约需要半分钟:

    start-all.sh
    

    访问管理界面

    完成上述步骤后使用主节点对应的虚拟机自带的网络浏览器firefox访问以下地址以查看NameNode信息:

    http://localhost:9870/
    

    如果你安装的是没有GUI界面的操作系统,你可以通过以下方式访问管理页面:

    • 在真实系统的浏览器访问主节点虚拟机的ip地址+端口号:
    http://192.168.232.131:9870/
    

    如果你未知你的虚拟机的ip地址,可以参照Ubuntu18.04查看ip地址

    如果出现如下图所示类似画面(有3个节点,主节点并不在这里显示),则集群已搭建完成并已成功运行。

    如果你的管理界面显示Live Nodes为0,或者无法访问管理界面,建议你转到设置ssh免登录以及hosts并检查你的hosts是否设置正确。

    上传与下载文件

    点击管理页面上侧的Utilities->Browse the file system,访问文件系统,点击下图所示位置开始上传文件。

    image-20200307121240106

    完成上传后,点击文件的Name即可下载该文件或查看文件副本相关存放信息,如下图所示。

    image-20200307121503642

    观察Download标签的链接http://192.168.232.150:9870/webhdfs/v1/focksor5.jpg?op=OPEN,你会发现访问的是主节点(NameNode)的地址而不是存放副本的节点(DataNode)的地址,这是因为Hadoop的文件存取都是通过主节点来控制的,所以如果集群主节点挂了整个集群都挂掉。

    explorer.html提示错误Server Error的解决方法

    如果你的管理界面中的explorer.html(eg:http://192.168.232.150:9870/explorer.html#/)出现错误Failed to retrieve data from /webhdfs/v1/?op=LISTSTATUS: Server Error,如下图所示,说明你的hadoop版本与jdk版本不兼容,建议使用openjdk-8。假设你目前使用的时openjdk-11,你应该在所有节点中执行以下指令以替换jdk,替换后应重启集群:

    sudo apt-get install openjdk-8-jre openjdk-8-jdk -y
    sed -i "s?java-11-openjdk-amd64?java-8-openjdk-amd64?g" /usr/local/hadoop/etc/hadoop/hadoop-env.sh
    

    image-20200307113521654

    正确的运行界面应如下图所示:

    image-20200307114456825

    explorer.html中上传文件提示Couldn't upload the file的解决方法

    如果在explorer.html中上传文件时提示错误Couldn't upload the file filename,如下图所示

    image-20200307115103492

    打开浏览器的开发者工具监听网络,可以看到是因为focksor-hadoop-slave4无法解析(如下图下侧所示),要解决这个问题,你需要将对应的条目写入到你现实系统的hosts中,假设你的系统为windwos,操作如下:

    • 访问http://192.168.232.150:9870/dfshealth.html#tab-datanode(此处应将ip修改为你的主节点对应的ip地址)

    • 将红框所示的主机名与ip写入到hosts文件中,windows的hosts文件位置为C:WindowsSystem32driversetchosts,你需要有管理员身份才能修改。

    image-20200307120537403

    • 修改完成的hosts文件应类似如下:
    # Copyright (c) 1993-2009 Microsoft Corp.
    #
    # This is a sample HOSTS file used by Microsoft TCP/IP for Windows.
    #
    # This file contains the mappings of IP addresses to host names. Each
    # entry should be kept on an individual line. The IP address should
    # be placed in the first column followed by the corresponding host name.
    # The IP address and the host name should be separated by at least one
    # space.
    #
    # Additionally, comments (such as these) may be inserted on individual
    # lines or following the machine name denoted by a '#' symbol.
    #
    # For example:
    #
    #      102.54.94.97     rhino.acme.com          # source server
    #       38.25.63.10     x.acme.com              # x client host
    
    # localhost name resolution is handled within DNS itself.
    #	127.0.0.1       localhost
    #	::1             localhost
    
    
    192.168.232.150 focksor-hadoop-master
    192.168.232.151 focksor-hadoop-slave1
    192.168.232.152 focksor-hadoop-slave2
    192.168.232.153 focksor-hadoop-slave3
    192.168.232.154 focksor-hadoop-slave4
    

    使用Python进行文件操作

    参考使用python对hdfs进行操作

    附录

    如果你无法按照本篇文章完成配置,你可以下载我已经完成环境搭建的虚拟机并自行比较配置差异。如果你不了解如何导入虚拟机,可以参考在Vmware中导入已有的虚拟机

    下载地址:百度网盘 提取码:7ith

    注:

    • 该集群使用的环境操作系统为ubuntu-18.04.4-live-server-amd64,是无图形操作界面的server版本
    • 该集群的所有主机的用户名与密码都是hadoop
    • 建议你的电脑至少拥有16G内存以流畅运行该集群
    • 该集群的主机名、身份、ip如下表,如果你运行该集群时ip地址与下表不符,应修改虚拟机的ip地址:
    身份 主机名 ip地址
    master focksor-hadoop-master 192.168.232.150
    slave focksor-hadoop-slave1 192.168.232.151
    slave focksor-hadoop-slave2 192.168.232.152
    slave focksor-hadoop-slave3 192.168.232.153
    slave focksor-hadoop-slave4 192.168.232.154

    参考资料

    本文主要参考的内容有:

    Hadoop官方文档 Hadoop: Setting up a Single Node Cluster

    树锐的Hadoop笔记

    Hadoop集群搭建教程(详细)

    金鱼头发

  • 相关阅读:
    微前端开发常见问题汇总
    什么是UUId?理解UUId的五个版本和使用
    前端实现.md文件转换成.html文件
    使用HTML5 SVG 标签
    小程序开发中遇到的问题
    Django REST framework+Vue 打造生鲜超市(十一)
    Django REST framework+Vue 打造生鲜超市(十)
    Django REST framework+Vue 打造生鲜超市(九)
    Django REST framework+Vue 打造生鲜超市(八)
    Django REST framework+Vue 打造生鲜超市(七)
  • 原文地址:https://www.cnblogs.com/focksor/p/install_hadoop_on_ubuntu_on_vmware.html
Copyright © 2011-2022 走看看