zoukankan      html  css  js  c++  java
  • Hadoop源码分析(1)

    这个blog是对hadoop源码分析比较全的文章,虽然时间有点久了,但是很多东西还是很有借鉴价值的,慢慢学习中。

    经济不行啦,只好潜心研究技术。 
    Google的核心竞争技术是它的计算平台。Google的大牛们用了下面5篇文章,介绍了它们的计算设施。 
    GoogleCluster: http://research.google.com/archive/googlecluster.html 
    Chubby:http://labs.google.com/papers/chubby.html 
    GFS:http://labs.google.com/papers/gfs.html 
    BigTable:http://labs.google.com/papers/bigtable.html 
    MapReduce:http://labs.google.com/papers/mapreduce.html 
    很快,Apache上就出现了一个类似的解决方案,目前它们都属于Apache的Hadoop项目,对应的分别是: 
    Chubby-->ZooKeeper 
    GFS-->HDFS 
    BigTable-->HBase 
    MapReduce-->Hadoop 

    目前,基于类似思想的Open Source项目还很多,如Facebook用于用户分析的Hive。 
    HDFS作为一个分布式文件系统,是所有这些项目的基础。分析好HDFS,有利于了解其他系统。由于Hadoop的HDFS和MapReduce是同一个项目,我们就把他们放在一块,进行分析。

    下图是MapReduce整个项目的顶层包图和他们的依赖关系。Hadoop包之间的依赖关系比较复杂,原因是HDFS提供了一个分布式文件系统,该系统提供API,可以屏蔽本地文件系统和分布式文件系统,甚至象Amazon S3这样的在线存储系统。这就造成了分布式文件系统的实现,或者是分布式文件系统的底层的实现,依赖于某些貌似高层的功能。功能的相互引用,造成了蜘蛛网型的依赖关系。一个典型的例子就是包conf,conf用于读取系统配置,它依赖于fs,主要是读取配置文件的时候,需要使用文件系统,而部分的文件系统的功能,在包fs中被抽象了。

    Hadoop的关键部分集中于图中蓝色部分,这也是我们考察的重点。

     

  • 相关阅读:
    [IOI1998] Pictures
    【C++】位操作(3)-获取某位的值
    PAT A 1013. Battle Over Cities (25)【并查集】
    hihoCoder 1391 Countries【预处理+排序+优先队列】2016北京网络赛
    PAT A 1014. Waiting in Line (30)【队列模拟】
    codeforces Round#379 div.2
    PAT A 1004. Counting Leaves (30)【vector+dfs】
    POJ 1163:The Triangle
    LeetCode39/40/22/77/17/401/78/51/46/47/79 11道回溯题(Backtracking)
    BZOJ 3680 吊打XXX
  • 原文地址:https://www.cnblogs.com/itgg168/p/2782404.html
Copyright © 2011-2022 走看看