zoukankan      html  css  js  c++  java
  • 2.0 flume、sqoop、oozie/Azkaban

    在一个完整的大数据处理系统中,除了hdfs+mapreduce+hive组成分析系统的核心之外,还需要数据采集、结果数据导出、任务调度等不可或缺的辅助系统,而这些辅助工具在hadoop生态体系中都有便捷的开源框架。

    1 日志采集框架Flume

     Flume是一个分布式、可靠、和高可用的海量日志采集、聚合和传输的系统。

     Flume可以采集文件,socket数据包等各种形式源数据,又可以将采集到的数据输出到HDFShbasehive、kafka队列等众多外部存储系统中

    一般的采集需求,通过对flume的简单配置即可实现

     Flume针对特殊场景也具备良好的自定义扩展能力,因此,flume可以适用于大部分的日常数据采集场景

    1.1运行过程

    1、 Flume分布式系统中最核心的角色是agentflume采集系统就是由一个个agent所连接起来形成

    2、 每一个agent相当于一个数据传递员,内部有三个组件:

    a) Source:采集源,用于跟数据源对接,以获取数据

    b) Sink:下沉地,采集数据的传送目的,用于往下一级agent传递数据或者往最终存储系统传递数据

    c) Channelangent内部的数据传输通道,用于从source将数据传递到sink

    Flume支持众多的sourcesink类型

    1.2Flume的安装部署

    1、Flume的安装非常简单,只需要解压即可,当然,前提是已有hadoop环境

    上传安装包到数据源所在节点上

    然后解压  tar -zxvf apache-flume-1.6.0-bin.tar.gz

    然后进入flume的目录,修改conf下的flume-env.sh,在里面配置JAVA_HOME

    2、根据数据采集的需求配置采集方案,描述在配置文件中(文件名可任意自定义)

    3指定采集方案配置文件,在相应的节点上启动flume agent

    2 工作流调度器azkaban

    一个完整的数据分析系统通常都是由大量任务单元组成:

    shell脚本程序,java程序,mapreduce程序、hive脚本等 各任务单元之间存在时间先后及前后依赖关系

    l为了很好地组织起这样的复杂执行计划,需要一个工作流调度系统来调度执行;

    简单的任务调度:直接使用linuxcrontab来定义;

    复杂的任务调度:开发调度平台

    或使用现成的开源调度系统,比如ooize、azkaban等

    2.1Azkaban介绍

    Azkaban是由Linkedin开源的一个批量工作流任务调度器。用于在一个工作流内以一个特定的顺序运行一组工作和流程。Azkaban定义了一种KV文件格式来建立任务之间的依赖关系,并提供一个易于使用的web用户界面维护和跟踪你的工作流。

    它有如下功能特点:

    ² Web用户界面

    ² 方便上传工作流

    ² 方便设置任务之间的关系

    ² 调度工作流

    ² 认证/授权(权限的工作

    ² 能够杀死并重新启动工作流

    ² 模块化和可插拔的插件机制

    ² 项目工作区 

    ² 工作流和任务的日志记录和审计

    2.2AzkabanOozie对比

    对市面上最流行的两种调度器,给出以下详细对比,以供技术选型参考。总体来说,ooize相比azkaban是一个重量级的任务调度系统,功能全面,但配置使用也更复杂。如果可以不在意某些功能的缺失,轻量级调度器azkaban是很不错的候选对象。

    功能

    两者均可以调度mapreduce,pig,java,脚本工作流任务

    两者均可以定时执行工作流任务

     工作流定义

    Azkaban使用Properties文件定义工作流

    Oozie使用XML文件定义工作流

      工作流传参

    Azkaban支持直接传参,例如${input}

    Oozie支持参数和EL表达式,例如${fs:dirSize(myInputDir)}

      定时执行

    Azkaban的定时执行任务是基于时间的

    Oozie的定时执行任务基于时间和输入数据

    资源管理

    Azkaban有较严格的权限控制,如用户对工作流进行读//执行等操作

    Oozie暂无严格的权限控制

    工作流执行

    Azkaban有两种运行模式,分别是solo server mode(executor serverweb server部署在同一台节点)multi server mode(executor serverweb server可以部署在不同节点)

    Oozie作为工作流服务器运行,支持多用户和多工作流

     工作流管理

    Azkaban支持浏览器以及ajax方式操作工作流

    Oozie支持命令行、HTTP RESTJava API、浏览器操作工作流

    3 sqoop数据迁移

    3.1作用

    sqoopapache旗下一款Hadoop和关系数据库服务器之间传送数据”的工具。

    导入数据MySQLOracle导入数据到HadoopHDFSHIVEHBASE等数据存储系统;

    导出数据:Hadoop的文件系统中导出数据到关系数据库

    3.2工作机制

    将导入或导出命令翻译成mapreduce程序来实现

    在翻译出的mapreduce中主要是对inputformatoutputformat进行定制

    3.3 sqoop安装

    安装sqoop的前提是已经具备javahadoop的环境

    1、下载并解压

    最新版下载地址http://ftp.wayne.edu/apache/sqoop/1.4.6/

    2、修改配置文件

    $ cd $SQOOP_HOME/conf

    $ mv sqoop-env-template.sh sqoop-env.sh

    打开sqoop-env.sh并编辑下面几行:

    export HADOOP_COMMON_HOME=/home/hadoop/apps/hadoop-2.6.1/

    export HADOOP_MAPRED_HOME=/home/hadoop/apps/hadoop-2.6.1/

    export HIVE_HOME=/home/hadoop/apps/hive-1.2.1

    3、加入mysqljdbc驱动包

    cp  ~/app/hive/lib/mysql-connector-java-5.1.28.jar   $SQOOP_HOME/lib/

    4、验证启动

    $ cd $SQOOP_HOME/bin

    $ sqoop-version

    预期的输出:

    15/12/17 14:52:32 INFO sqoop.Sqoop: Running Sqoop version: 1.4.6

    Sqoop 1.4.6 git commit id 5b34accaca7de251fc91161733f906af2eddbe83

    Compiled by abe on Fri Aug 1 11:19:26 PDT 2015

    到这里,整个Sqoop安装工作完成。

     

  • 相关阅读:
    docker 启动redis
    mysql主从库搭建
    云镜象下载地址整理
    linux 命令积累
    canal 踩坑实录---这可能是你看到的最全最简单的canal教程
    数据库查询超级慢,数据库死锁的查看与解决
    微信公众平台开发---建立服务器与微信公众平台的链接
    使用sql更改表的列的数据类型和添加新列和约束
    Mac安装、配置MongoDB
    shell 变量
  • 原文地址:https://www.cnblogs.com/Smileing/p/7219833.html
Copyright © 2011-2022 走看看