• Spark sql 简单示例


    Spark sql hive 整合  http://shiyanjun.cn/archives/1113.html


    都这个点了,很多同事还没有到公司,得那我就简单写个spark sql 的示例 回顾而知新,孔老子明智


    package com.ib.e3
    
    import org.apache.spark.sql.SQLContext
    import org.apache.spark.{SparkConf, SparkContext}
    /**
      * Created by xxxxoooo on 9/2/2016.
      * 不需要导入额外的jar
      */
    class SparkSQLExample {
    }
    object SparkSQLExample{
      def main(args: Array[String]) {
        val conf = new SparkConf().setAppName("sparksql").setMaster("local")
        val sc = new SparkContext(conf)
        val sql = new SQLContext(sc)
        //file 文件放在跟src平行的位置
        val df = sql.read.json("privateInfo")
        df.cache()
        //显示整个数据框
        df.show();
    
        /**
          * +---+-------+
          * |age|   name|
          * +---+-------+
          * | 18|   xiao|
          * | 20|xiaoyan|
          * | 19|    yan|
          * +---+-------+
          */
        df.printSchema()
        //root
         //|-- age: long (nullable = true)
         //|-- name: string (nullable = true)
        //以下写法经测试都对
        df.select("name").show()
        println("---1---")
        df.select(df.col("name")).show()
        df.select(df.col("name"),df.col("age")+2).show()
        println("---2---")
        // "age" + 3 不能这么写 ,reason ?
        //df.select("name","age"+3).show()
        df.filter(df.col("age").gt(18)).show()
        df.groupBy(df.col("age")).count().show()
      }
    }


    埃及 ,一个不太平但依然美丽的地方






  • 相关阅读:
    1.18
    人月神话读后感
    疯狂学java的第45天
    学Java的第46天
    JAVA学习日记150720
    JAVA学习日记140719
    JAVA学习日记160721
    JAVA学习日记130718
    Windows DOS窗体下Oracle 数据库的导入导出(IMP/EXP)命令
    IntelliJ IDEA自动清除没用的import
  • 原文地址:https://www.cnblogs.com/TendToBigData/p/10501381.html
Copyright © 2020-2023  润新知