zoukankan      html  css  js  c++  java
  • hortonworks2.5.3 install step log

    1.创建本地YUM源,
    下载TAR。GZ HDP,HDP-UTILS,AMBARI介质
    安装HTTPD,在/VAR/WWW/HTML/下创建三个相应的目录,把以上解压的三个目录链接过来
    在三个目录中执行命令,createrepo ./
    至此,本地YUM源创建完毕。

    cd /etc/yum.repos.d/

    cat ambari.repo

    [ambari-2.x]
    name=Ambari 2.x
    baseurl=http://localhost/ambari/
    gpgcheck=0
    enabled=1
     
    [HDP-UTILS-1.x]
    name=Hortonworks Data Platform Utils Version - HDP-UTILS-1.x
    baseurl=http://localhost/hdp-utils
    gpgcheck=0
    enabled=1

    [HDP]
    name=hdp2.5.x
    baseurl=http://localhost/hdp
    gpgcheck=0
    enabled=1


    2.首先安装AMBARI
    yum install ambari-server -y

    设置AMBARI
    ambari-server setup

    ambari-server start

    3.localhost:8080
    fqdn:
    包含HOSTNAME:DOMAINNAME
    vi /etc/hosts
    127.0.0.1 student.org

    ambari-server setup --jdbc-db=mysql --jdbc-driver=/usr/share/java/mysql-connector-java.jar
    必须执行这一句,它会把JDBC的JAR包复制到AMBARI的CLASSPATH,这样你在HIVE配置MYSQL METASTORE的时候才能测试连接成功。

    我想实现的效果是这样的,使用AMBARI快速部署开发和生产的大数据环境,在本机上先多次完成模拟测试,使用本机的DOCKER来构建三台机器,然后使用AMBARI快速安装理解AMBARI是如何来管理HDP的组件的,原理是什么?

    能否让其来管理APACHE或者CDH的组件?这样就方便了 yum localinstall ambari-server.*** -y

    2.setup the ambari server
    ambari-server setup
    yum install mysql-connector-java

    create user/pwd for ambari user;

    CREATE USER 'ambari'@'%' IDENTIFIED BY 'ambari';
    GRANT ALL PRIVILEGES ON *.* TO 'ambari'@'%';
    CREATE USER 'ambari'@'localhost' IDENTIFIED BY 'ambari';
    GRANT ALL PRIVILEGES ON *.* TO 'ambari'@'localhost';
    CREATE USER 'ambari'@'%' IDENTIFIED BY 'ambari';
    GRANT ALL PRIVILEGES ON *.* TO 'ambari'@'%';
    FLUSH PRIVILEGES;

    cd /var/lib/ambari-server/resources/
    http://docs.hortonworks.com/HDPDocuments/Ambari-2.4.2.0/bk_ambari-reference/content/using_ambari_with_mysql.html

    3.ambari-server start

     如果启动失败,就去查看其中的日志,在安装的过程中,也可以直接tail -f /var/log/ambari-server/ambari-server.log这样的好处时,可以直接看到任务进行的细节,及时发现问题。

     4
    注意ambari,自动创建了一个用户组hadoop,和hdfs,hive,spark等用户,如果你想使用你本机的某个用户来访问hadoop,

    你需要把这个用户加入到hadoop组。

    查看本机用户组: cat /etc/group |grep hadoop

    添加用户到某个组: gpasswd -a userName groupName

  • 相关阅读:
    实时信号阻塞队列大小测试
    实时信号和非实时信号
    [Linux]关于sigprocmask函数的讨论
    java中Map集合的常用方法 (转)
    佛跳墙
    百万数据查询效率提高方法(转)
    bootstrap table 前后端分页(超级简单)
    bootstrap table 分页序号递增问题 (转)
    Spring boot+mybatis+thymeleaf 实现登录注册,增删改查
    js弹出对话框的三种方式(转)
  • 原文地址:https://www.cnblogs.com/huaxiaoyao/p/6244097.html
Copyright © 2011-2022 走看看