• 寒假第十天


    我今天学习了spark sql

    Spark SQL可以很好地支持SQL查询,一方面,可以编写Spark应用程序使用SQL语句进行数据查询,另一方面,也可以使用标准的数据库连接器(比如JDBC或ODBC)连接Spark进行SQL查询,这样,一些市场上现有的商业智能工具(比如Tableau)就可以很好地和Spark SQL组合起来使用,从而使得这些外部工具借助于Spark SQL也能获得大规模数据的处理分析能力。

    对于实验五了解了Spark sql的基本操作 以及如何利用编程将RDD转化为DataFrame和编程实现利用 DataFrame 读写 MySQL 的数据 编程实现利用 DataFrame 读写 MySQL 的数据 

    1.Spark SQL 基本操作

    (1) 查询所有数据; 

    (2) 查询所有数据,并去除重复的数据;

    (3) 查询所有数据,打印时去除 id 字段;

    (4) 筛选出 age>30 的记录; 

    df.filter(df("age") > 30 ).show() 

    5) 将数据按 age 分组;

     df.groupBy("name").count().show() 

    (6) 将数据按 name 升序排列;

     df.sort(df("name").asc).show() 

    (7) 取出前 3 行数据;

    df.take(3) 或 scala> df.head(3

    8) 查询所有记录的 name 列,并为其取别名为 username;

    df.select(df("name").as("username")).show()

    (9) 查询年龄 age 的平均值;

     df.agg("age"->"avg")

    (10) 查询年龄 age 的最小值。

    df.agg("age"->"min") 

    l例如 df.select(df("name"), df("age") + 1).show()   // 将 "age" 加    df.filter(df("age") > 21).show() # 条件语句


    2.编程实现将 RDD 转换为 DataFrame 

    3. 编程实现利用 DataFrame 读写 MySQL 的数据

    1. cd /usr/local/spark
    2. ./bin/spark-shell
    3. --jars /usr/local/spark/jars/mysql-connector-java-5.1.40/mysql-connector-java-5.1.40-bin.jar
    4. --driver-class-path /usr/local/spark/jars/mysql-connector-java-5.1.40/mysql-connector-java-5.1.40-bin.jar
    5. 把下面程序一条条拷贝到spark-shell中执行
    import java.util.Properties
    
     import org.apache.spark.sql.types._
    
    import org.apache.spark.sql.Row
    
    
    object TestMySQL {
    
    def main(args: Array[String]) {
    
    val spark = SparkSession.builder().appName("RddToDFrame").master("local").getOrCreate()
    
    val employeeRDD = spark.sparkContext.parallelize(Array("3 Mary F 26","4 Tom M 23")).map(_.split(" "))
    
    val schema = StructType(List(StructField("id", IntegerType,true),StructField("name", StringType, true),StructField("gender", StringType,true),StructField("age", IntegerType, true)))
    
    val rowRDD = employeeRDD.map(p => Row(p(0).toInt,p(1).trim,p(2).trim,p(3).toInt)) 
    val employeeDF = spark.createDataFrame(rowRDD, schema)
    
    val prop = new Properties() 
    prop.put("user", "root") 
    prop.put("password", "199126") 
    prop.put("driver","com.mysql.jdbc.Driver") 
    employeeDF.write.mode("append").jdbc("jdbc:mysql://localhost:3306/sparktest","sparktest.employee", prop)
    
    Val jdbcDF = spark.read.format("jdbc").option("url","jdbc:mysql://localhost:3306/sparktest").option("driver","com.mysql.jdbc.Driver").option("dbtable","employee").option("user","root").option("password", "199126").load()
    
    jdbcDF.agg("age" -> "max", "age" -> "sum").show() //查询
    
     print("ok") } }
    

      

     

  • 相关阅读:
    Javascript 获得数组中相同或不同的数组元素   
    Java IO流 FileOutputStream、FileInputStream的用法   
    你的项目中使用过哪些JSTL标签?
    JavaWeb代码复用
    软件质量保证体系是什么
    二叉树的递归遍历框架:
    二叉树节点的定义框架:
    SQL 2012 Always On 为 MSCRMSqlClrLogin SQL 登录名创建非对称密钥时报语法错误
    linux命令指usermod(管理用户以及权限的命令)
    Dynamics CRM 2013 SP1 升级到Dynamics CRM 2015
  • 原文地址:https://www.cnblogs.com/zlj843767688/p/12261772.html
Copyright © 2020-2023  润新知