zoukankan      html  css  js  c++  java
  • Spark 插件不加载

    今天精简Spark代码之后发现插件不加载。。

    因为Spark有至少两种插件加载方式: 一种是手动加载 也就是比如说在workspace里 new 一个TestPlugin() 然后initialize()

    另一种就是官方的加载方式,安装官方的说明生成jar之后拷贝到target下的plugins目录下

    但是官方的插件加载方式有个前提:APPLICATION_VERSION = 1.0.0 进行比较。 所以要想运行插件,application-version 不能太低了。一般就是2.6.0;

    注意:如下

    http://www.hutud.com/index.php/archives/389

    今天修改了spark后,插件无法加载。 最后找到原因了,在spark启动的时候 有个pluginmanager进行加载插件,

                        minVersion = plugin1.selectSingleNode("minSparkVersion").getText();

                        String buildNumber = JiveInfo.getVersion();
                        boolean ok = buildNumber.compareTo(minVersion) >= 0;

                        if (!ok) {
                            return null;
                        }
                   但是他会跟default.properties中的 APPLICATION_VERSION = 1.0.0 进行比较。 所以要想运行插件,application-version 不能太低了。一般就是2.6.0;

  • 相关阅读:
    初识Tensorboard
    sql优化的几种方法
    nginx+ffmpeg+jwplayer
    jwplayer播放器
    详解spring 每个jar的作用
    RabbitMQ安装
    Migration 使用方法
    VisualSVN server 启用日志编辑
    nodejs prefix(全局)和cache(缓存)windows下设置
    python3 eval字符串str 转字典dict
  • 原文地址:https://www.cnblogs.com/IamThat/p/3103202.html
Copyright © 2011-2022 走看看