zoukankan      html  css  js  c++  java
  • Spark源码编译,官网学习

    这里以spark-1.6.0版本为例

    官网网址   http://spark.apache.org/docs/1.6.0/building-spark.html#building-with-buildmvn

    前提:使用Maven构建Spark需要Maven 3.3.3或更新版本和Java 7以上版本。

    Spark构建可以提供合适的Maven二进制文件; 见下文。

    1.用build/mvn 进行构建spark

    Spark现在包含一个独用的Maven安装,以便轻松地从本地源码的build/目录下构建和部署Spark。 此脚本将自动下载并设置所有必需的构建要求(Maven,Scala和Zinc)在本身的build /目录里。 如果已经存在任何mvn二进制文件,它将会被授予,否则将自动下载Scala和Zinc副本,确保正确的版本要求得到满足。 build / mvn执行作为一个传递到mvn调用,允许从以前的构建方法轻松转换。 例如,可以如下构建Spark的版本:

    build/mvn -Pyarn -Phadoop-2.4 -Dhadoop.version=2.4.0 -DskipTests clean package

    这种方法没有测试,只看了官网的介绍,有兴趣大家可以自己测试一下。

    2.make-distribution.sh 方式

    要创建Spark分布,就像由Spark Downloads页面分发的那样,并且被布局为可运行,可以使用项目根目录中的make-distribution.sh。 它可以配置Maven配置文件设置等等直接的Maven构建。 例:

    ./make-distribution.sh --name custom-spark --tgz -Psparkr -Phadoop-2.4 -Phive -Phive-thriftserver -Pyarn

    对于这个指令的更多的使用信息,可以help查看

    ./make-distribution.sh --help

    这种方式没有测试,依旧只看了官网的介绍,有兴趣大家可以自己测试一下

    3.maven进行构建spark

  • 相关阅读:
    201571030142 四则运算
    略读《构建之法》
    基于原型的软件需求获取
    Java实现小学四则运算练习系统(UI)
    Java实现小学四则运算练习
    201571030104+ 快速通读教材《现代软件工程——构建之法》
    对pow函数的思考
    mysql转移后,启动失败问题
    递归
    requests+re(正则)之猫眼top100排名信息爬取
  • 原文地址:https://www.cnblogs.com/tijun/p/7552828.html
Copyright © 2011-2022 走看看