• 成功案例--Spark-2.3.0源码make-distribution.sh打包编译或Failed to execute goal net.alchim31.maven:scala-maven-plugin:3.2.2:compile (scala-compile-first) on project spark-tags_2.11


    [ERROR] Failed to execute goal net.alchim31.maven:scala-maven-plugin:3.2.2:compile (scala-compile-first) on project spark-tags_2.11: Execution scala-compile-first of goal net.alchim31.maven:scala-maven-plugin:3.2.2:compile failed. CompileFailed -> [Help 1]

    注:那种告诉你要加什么什么配置,但是不告诉你在什么位置加的都是耍流氓!!!

    废话不多说,直接进入正题

    官方文档永远是第一手学习资料,bilibili是白嫖第二手,各大平台是人民币第三手,所有博客都是其他手!!!

    所以,

     

     

    一、环境准备
    1) JDK 1.8+
    2) Maven 3.3.9+
    3) Scala 2.11.8(安装路径的conf文件夹下的配置文件settings.xml一定要正确配置,并且添加一个阿里云的maven中间仓库,加快编译Spark时下载相关包的速度)

      添加的配置如下:

     

     

    二、下载解压Spark-2.3.0源码并打包编译

    正常来说make-distribution.sh打包编译Spark源码只需要三步,分别是:

    1、设置maven内存大小,加到环境变量里

    cd /home/haoop/

    vim .bash_profile

    export MAVEN_OPTS="-Xmx2g -XX:ReservedCodeCacheSize=512m"

    2、CDH版本的Haoop需要配置pom.xml配置文件

    cd Spark-2.3.0/

    vim pom.xml

    添加cloudera的maven仓库,配置内容:

    <repository>
        <id>cloudera</id>
        <url>https://repository.cloudera.com/artifactory/cloudera-repos/</url>
    </repository>

    添加配置的位置:

     3、执行./dev/make-distribution.sh进行打包编译

    ./dev/make-distribution.sh --name 2.6.0-cdh5.15.1 --tgz -Pyarn -Phadoop-2.6 -Dhadoop.version=2.6.0-cdh5.15.1 -Phive -Phive-thriftserver

    成功编译(快则十几分钟,慢则三四十分钟,再慢就编译失败吧,朋友们!)

    启动Saprk-shell

    cd /home/hadoop/app/spark-2.3.0-bin-2.6.0-cdh5.15.1/bin/

     

    -----------------------------------------------------转载需备注博主名和原创网址!!!------------------------------------------------------
  • 相关阅读:
    php实现一个简单的四则运算计算器
    linux下service+命令和直接去执行命令的区别,怎么自己建立一个service启动
    mongodb
    随笔一个dom节点绑定事件
    php-fpm 启动参数及重要配置详解
    PHP的设计模式之工厂模式
    linux下mysql数据的导出和导入
    windows下mongodb安装与使用图文教程(整理)
    MySQL性能分析及explain的使用
    nginx反向代理缓存服务器的构建
  • 原文地址:https://www.cnblogs.com/Luoters/p/15350344.html
Copyright © 2020-2023  润新知