zoukankan      html  css  js  c++  java
  • Hadoop的安装

     
     
    本来是用word写的,里面有一些截图,可是iteye的编辑器上传图片不方便,所以,附件中是原版word文档

    一、 Hadoop安装
    1.1 hosts文件修改
    在每个结点修改hosts文件,配置节点IP与别名
    Vi /etc/hosts

    1.2 建立hadoop用户
    Useradd username  //添加用户
    Passwd username   //为用户生成密码


    1.3 生成公私钥密钥对
    用hadoop 用户登录
    在各个节点上,分别使用 ssh-keygen –t rsa –f  ~/.ssh/id_rsa来生成密钥
    Cd ~/.ssh
    cat id_rsa.pub  >> authorized_keys

    1.4 密钥合并和相互复制
    将各个节点的authorized_keys 合并,并分发到每个节点,如果是从本地免密码登录远程主机,则把本现的id_rsa.pub复制到远程主机。
    1.5 安装hadoop
    从mirror.bit.edu.cn 用hadoop用户解压到安装目录,
    进入hadoop 的conf 目录:


    1、 修改core-site.xml
    2、

    配置  fs.default.name 属性, 即namenode 节点IP和端口
    Hadoop.tmp.dir hadoop临时文件目录,弱不配置,则使用操作系统的/tmp,重启后/tmp文件删除,必须重新 格式化hdfs,所以,需要自定义临时目录。

    2、修改hdfs-site.xml


    dfs.name.dir namenode文件存放目录,此目录在namenode节点
    dfs.data.dir  dataNode 数据文件存放目录,应该目录分布在各dataNode 节点
    dfs.replication 文件分割数量。小于等于 datanode数

    3、修改mapred-site.xml



    Mapred.job.tracker mareduce 作业跟踪器主机IP与端口,一般同namenodeIP,配置自定义

    4、修改hadoop-env.sh


    如图,找到 export_JAVA_HOME,去掉注释,并写上JDK路径

    5、其它,在完全分布式安装中,还需要配置 master 和slaves master写nameNode的、slaves中写上各datanode的hostname,配置完后,将hadoop复制到集群中的其它节点。

    配置完后,在 namenode上进入hadoop安装目录的bin 第一次使用,运行 hadoop dfs –format格式化文件系统,然后 使用 ./start-all.sh 来启动hadoop
    成功启动后,输入JPS命令,如图:


    因为我这里是伪分布式,所以namenode和datanode在同一台机上,若为完全分布式,则在datanode主机上查看datanode进程
    二、HDFS 文件操作
    1、命令行操作
    1、列出hadoop 文件列表
    Hadoop dfs –ls

    详细的,查看API


    微信公众号: 猿人谷
    如果您认为阅读这篇博客让您有些收获,不妨点击一下右下角的【推荐】
    如果您希望与我交流互动,欢迎关注微信公众号
    本文版权归作者和博客园共有,欢迎转载,但未经作者同意必须保留此段声明,且在文章页面明显位置给出原文连接。

  • 相关阅读:
    队列的链式存储结构实现
    堆栈的链式存储实现
    使用C#改变windows系统本地时间
    oracle 多数值录入校验(分隔符“/”)
    oracle中in和exists的区别
    redis安装 windows版(图形化安装)
    Oracle 返回结果集
    饿了么4年 + 阿里2年:研发路上的一些总结与思考
    Oracle 获取各类时间
    Oracle表中已有数据,修改字段长度
  • 原文地址:https://www.cnblogs.com/heyonggang/p/2827845.html
Copyright © 2011-2022 走看看