zoukankan      html  css  js  c++  java
  • 《微店大数据开发平台架构演讲》读后感

    微店很熟悉的一个词汇,微店在16年4月之前,数据开发流程和现在是有很多的差异的;

    在16年4月前:数据的开发流程:

    1.开发人员通过公共账号登录安装了Hive、Hadoop客户端的gateway机器;

    2.编写自己的脚本,调试代码,完成后通过crontab配置脚本定时执行;

    3.为了防止脚本被其他同事修改,一些谨慎的同事会在每次开发完自己的脚本后同步一份到本机,后面为了实现版本控制,把脚本同步到了git;

    这样的体系,原文中给了一个“小米加步枪”都赶不上,真的是可见有很多的问题:

    1.效率低下。

    2.脚本或代码没有版本控制,开发人员想回滚到以前的版本很不方便。

    3.若开发人员疏忽,添加新的需求后未经过调试,将可能会影响生成的数据,进而影响线上业务。

    4.任务缺乏权限控制,可登陆gateway的任何人都可修改、运行脚本。

    5.对于脚本中依赖的表,只能预估它每天产生的时间,一旦它产出延迟,将影响数据的产出。

    6.任务失败无任何报警,只能依靠人工发现。

    7.任务失败重新恢复后无法自动通知依赖下游重新生成。

    8.任务失败要逐层向上游查找最源头的任务失败原因,排查异常繁琐。

    9.一旦gateway机器故障,所有的任务都将灰飞烟灭,毫无疑问这将是一场灾难。

      对于这个平台来讲,呀翱翔提高大数据开发的效率,就必须会改变这种体系。在16年的4月,公司的员工研究并部署了zeus,公司数据开发效率得到了显著提高,解决了开发调试脚本,同步脚本,失败报警等问题,但同时zeus也存在一些问题,zeus使用的GWT的前端框架,开发新的需求比较繁琐,开发、发布任务的流程很不规范,改动很容易就影响线上,带来线上服务的不稳定。基于这些考虑我们启动了二期的开发,并且将二期大数据开发平台定名为Mars。Mars底层复用zeus,主要规范数据开发、调试、发布流程,更换zeus前端框架,改为使用extjs,并实现脚本版本控制,回滚历史脚本等一系列功能。

      对于大数据开发平台来讲,就必须具备比较强的功能特征;

      1.引入版本控制,方便开发人员回滚到之前版本,快速恢复线上调度的任务。

      2.规范大数据开发、测试、上线的流程。

      3.权限控制,任务的所有人、管理员才可以操作任务。

      4.依赖调度,所有依赖的任务执行成功,自动触发自身执行。

      5.任务执行失败,发送执行失败消息给任务所有人,人工介入。

      6.手动恢复任务,恢复成功后,自动通知下游的任务重新执行。

      7.任务依赖图谱,成功失败用不同颜色区分,失败源头一目了然。

      8.任务信息存储在数据库,Mars机器采用分布式系统架构,即使单台机器故障也不会影响使用。

      9.输入输出检测,判断输入表是否准备好,检测输出表数据是否完整。

      10.合理使用Hadoop资源。用户只能使用所属团队指定的hadoop队列。

       大数据开发平台建立在HDFS、YARN、HiveMeta的基础服务之上,目前支持通过Hive、Kylin查找数据,后面所有的数据查询入口将都集成在这里,包括:ES、Redis、Hades等,大数据平台目前支持Shell、Hive、MR、Spark四种任务类型。

      mars体系架构设计的架构图:

      Mars大数据开发平台依托于Hadoop集群,所有的mars机器都必须安装hadoop、Hive客户端。Mars机器有两个身份:master&worker。master负责管理Job、给worker分配Job;worker负责执行Job,提交Job到Hadoop集群,接收Job执行的日志信息。

      到后来就是分布式的体系架构:

      对于分布式来讲,就有一个很明显的问题就是谁是master谁是worker,在应用启动时,机器通过抢占的方式争当master,通过在数据库中插入一条记录的方式标识当前谁是master,master每隔一定时间去更新数据库,通过维护一个更新时间间接告知worker它还活着,worker同样每隔一定时间去查询数据库,倘若master的更新时间超过一定时间间隔,worker则认为master故障,第一个发现的worker将当仁不让的成为新的master。

      对于master和worker的容灾模式,master与worker之间使用基于protobuf的netty进行通信,master会每隔一段时间去检测与worker的连接,若发现worker故障,master将断开与worker的连接,把分配到该故障worker上的任务重新分配到其他worker上去执行;若master故障,worker将使用抢占的方式争当新的master,新的mater将中止所有正在运行的Job,重新分配。

    后端的工作主要是:

      1.用户在开发中心运行、选中运行或在调度中心手动执行、手动恢复。

      2.Mars worker机器进行预判断,包括权限判断、脚本中是否有参数为替换等。

      3.worker机器向master机器发送执行任务请求。

      4.master机器收到执行任务请求,把任务加入执行队列。

      5.master机器定时扫描执行队列,选择合适的worker(负载均衡)执行此任务。

      6.前置准备。包括:资源文件下载,数据表数据监测等。

      7.执行任务。

      8.后置处理。包括数据浮动检查、旧分区清理、添加执行成功标志等。

      9.如果生成了结果文件,还要上传结果文件到Hadoop,方便以后下载。

    前端主要是

      1.用户触发执行任务。

      2.每隔一段时间请求日志,刷新到前端页面。

      3.任务执行完毕。

      4.如果是开发中心有结果数据,则请求Hadoop上的结果数据。

      5.进行数据展示。

    而对于这个平台来讲还存在一些诟病,

      1.检测未跑任务。master挂掉或部署过程中的定时任务不会被触发,需要有机制发现这种任务。

      2.重新部署后,正在运行的任务会重新跑。正在运行的任务会被master取消掉,重新分配执行,如果任务执行需要较长的时间,这样做就是无法接受的。

      3.检测数据质量。目前输出表仅简单的检测了数据浮动(即数据大小),对于表中的数据内容需要进一步检测,以保证数据产出的合法性。

    这些需要他们下来的发展中进行改进

    文中部分图片、专业术语摘自原文,如有不适,请联系15227013954,微信同号

  • 相关阅读:
    微信小程序 添加卡券至微信卡券
    微信小程序 引入第三方字体
    小程序 生成条形码barcode.js
    Pycharm编辑器功能之自动导入模块
    Cannot open include file: 'libxml/xpath.h': No such file or directory
    怎么在32位windows系统上搭建爬虫框架scrapy?
    python2.7安装Twisted报Microsoft Visual C++9.0 required
    在windows下搭建爬虫框架,安装pywin32时出错?
    python如何通过pymongo连接到mongodb?
    python2.7.12自带pip吗?
  • 原文地址:https://www.cnblogs.com/zhaochunhui/p/10998126.html
Copyright © 2011-2022 走看看