• Spark 1.4连接mysql诡异的问题及解决


    在spark-default.conf文件中明明配置了mysql的数据源连接

    随后启动spark-shell 执行如下测试代码:

    import org.apache.spark.{SparkContext, SparkConf}
    import org.apache.spark.sql.{SaveMode, DataFrame}
    import org.apache.spark.sql.hive.HiveContext
    
    val mySQLUrl = "jdbc:mysql://localhost:3306/yangsy?user=root&password=yangsiyi"
    
      val people_DDL = s"""
                CREATE TEMPORARY TABLE PEOPLE
                USING org.apache.spark.sql.jdbc
                OPTIONS (
                  url    '${mySQLUrl}',
                  dbtable     'person'
                )""".stripMargin
    
        sqlContext.sql(people_DDL)
        val person = sql("SELECT * FROM PEOPLE").cache()
    
    val name = "name"
    val targets = person.filter("name ="+name).collect()
    

    collect()的时候报找不到driver

    这个问题就很诡异了。。数据源连接也没错啊,毕竟在hive的metastore也是用的这个啊。。最终只能在启动spark-shell的时候同时引入jar包了= =

    ./spark-shell --jars /usr/local/spark-1.4.0-bin-2.5.0-cdh5.2.1/lib/mysql-connector-java-5.1.30-bin.jar 

    随后再执行就OK了。。诡异。。

    或者在执行collect()之前引入mysql的jar包也可以

    sqlContext.sql("add jar /usr/local/spark-1.4.0-bin-2.5.0-cdh5.2.1/lib/mysql-connector-java-5.1.30-bin.jar")

    不过总感觉不妥。。有解决办法的求指导哈~

  • 相关阅读:
    面向对象-类与实例化对象
    面向对象-面向对象与面向过程优缺点
    pyCharn文件模板变量
    安装pycrypto以及报错处理
    文件-读、写、追加已经文件操作
    文件-读取与编码检测
    运算-三元运算
    三方工具-sqlacodegen
    函数-生成器之斐波拉契数列
    python内存-fromkeys
  • 原文地址:https://www.cnblogs.com/yangsy0915/p/4910694.html
Copyright © 2020-2023  润新知