• 【2020/2/1】寒假自学——学习进度报告8


      开始尝试sparkSQL的尝试编程。


      SparkSQL总体来说就是spark中的hive,但麻烦的一点是spark官网下载的并不自带对hive的支持,所以不能使用外部的hive。之后解决。

      所以这次主要关注dataframe的编程。

      首先创建了一个json文件用来创建DataFrame,内容为:

    { "id":1 , "name":" Ella" , "age":36 }

    { "id":2, "name":"Bob","age":29 }

    { "id":3 , "name":"Jack","age":29 }

    { "id":4 , "name":"Jim","age":28 }

    { "id":4 , "name":"Jim","age":28 }

    { "id":5 , "name":"Damon" }

    { "id":5 , "name":"Damon" } 

      编写程序的开头。

    import findspark
    
    findspark.init()
    
    from pyspark.sql import SparkSession
    
    spark = SparkSession.builder.getOrCreate()

      SparkSession是sparksql的入口。

      然后就是可以进行操作。

      显示所有数据:

    df=spark.read.json("file:///usr/local/spark/mycode/exp5/employee.json")
    df.show()

      

       排序:

    df = spark.read.json("file:///usr/local/spark/mycode/exp5/employee.json")
    df.sort(df.age.desc()).show()

      

       求均值:

    df = spark.read.json("file:///usr/local/spark/mycode/exp5/employee.json")
    df.groupBy().avg("age").show()

      

       值得一提,python中的dataframe可以直接调用其中的列作为迭代器,但只能作为dataframe函数的参数。看了源代码之后发现dataframe函数和groupBy之后的函数不一样,就想avg、max等函数只有在groupBy之后才能使用,但这时不能使用迭代器(也就是df.age这类),只能使用string。

       具体函数可以参考文档。

      在值得一提,发现一个很有用的功能。

    df.agg({"age": "max"}).show()

    from
    pyspark.sql import functions as F df.agg(F.min(df.age)).show()

      agg(*exprs)[source]这个函数可以免去group的麻烦()。

  • 相关阅读:
    Zepto swipe 无效(坑)
    Zepto.js-Ajax 请求
    Zepto.js-事件处理
    excel 大文件解析原理实现
    springboot 集成J2Cache
    springboot 单元测试 指定启动类
    springboot 解决 数字长度过长导致JS精度丢失问题
    JS 基本操作
    VUE 动态菜单管理
    VUE router-view key 属性解释
  • 原文地址:https://www.cnblogs.com/limitCM/p/12250518.html
Copyright © 2020-2023  润新知