• Spark 插件不加载


    今天精简Spark代码之后发现插件不加载。。

    因为Spark有至少两种插件加载方式: 一种是手动加载 也就是比如说在workspace里 new 一个TestPlugin() 然后initialize()

    另一种就是官方的加载方式,安装官方的说明生成jar之后拷贝到target下的plugins目录下

    但是官方的插件加载方式有个前提:APPLICATION_VERSION = 1.0.0 进行比较。 所以要想运行插件,application-version 不能太低了。一般就是2.6.0;

    注意:如下

    http://www.hutud.com/index.php/archives/389

    今天修改了spark后,插件无法加载。 最后找到原因了,在spark启动的时候 有个pluginmanager进行加载插件,

                        minVersion = plugin1.selectSingleNode("minSparkVersion").getText();

                        String buildNumber = JiveInfo.getVersion();
                        boolean ok = buildNumber.compareTo(minVersion) >= 0;

                        if (!ok) {
                            return null;
                        }
                   但是他会跟default.properties中的 APPLICATION_VERSION = 1.0.0 进行比较。 所以要想运行插件,application-version 不能太低了。一般就是2.6.0;

  • 相关阅读:
    网络流24题之 1738: 最小路径覆盖问题
    POJ 1966 Cable TV Network
    网络流24题- 魔术球问题
    网络流24题之 圆桌问题
    可持久化线段树维护启发式合并的可持久化并查集
    HDU 6166 Senior Pan
    ACM对拍cpp程序
    双联通分量复习
    欧拉回路求路径POJ 2230
    LCA的两种求法
  • 原文地址:https://www.cnblogs.com/IamThat/p/3103202.html
Copyright © 2020-2023  润新知