• pyspark将DataFrame转成table以及操作sql语句


    pyspark可以直接将DataFrame格式数据转成table,也可在程序中执行sql代码。

    1. 首先导入库和环境,os.environ在系统中有多个python版本时需要设置

    import os
    from pyspark import SparkContext, SparkConf
    from pyspark.sql.session import SparkSession
    from pyspark.sql import HiveContext
    
    os.environ["PYSPARK_PYTHON"]="/usr/bin/python3"
    
    conf = SparkConf().setAppName('test_sql')
    sc = SparkContext('local', 'test', conf=conf)
    spark = SparkSession(sc)
    hive_text = HiveContext(spark)

    2. 获取DataFrame格式数据

    获取DataFrame格式的方式有很多种:读取sql/hive数据、读取csv数据读取text数据rdd转DataFrame数据、Pandas数据转DataFrame数据、读取json数据、读取parquet数据等等。

    本例采用pandas转DataFrame格式数据,其中生成pandas数据的方式可见:https://www.cnblogs.com/qi-yuan-008/p/12412018.html,例如

    import pandas as pd
    df_1 = pd.DataFrame([['Jack','M',40],['Tony','M',20],['Mary','F',30],['Bob','M',25]], columns=['name','gender','age'])

    然后从pandas建立DataFrame数据(spark.createDataFrame)<注:从DataFrame转成pandas也很方便:df.toPandas()即可>:

    df = spark.createDataFrame(df_1)
    print(df.show())

    3. 将DataFrame数据转成table:registerDataFrameAsTable

    rows_data = hive_text.registerDataFrameAsTable(df, tableName='table_moment') #生成虚拟表,设置表名
    data_2 = hive_text.sql("select * from table_moment") #执行sql语句
    print(data_2.take(2))
    print(data_2.collect()[0])

    取表中某一列数据:

    print(data_2.select('name').show())

    取表中多列数据:

    print(data_2.select(['name', 'age']).show())

    注意:如果要连hive表的数据,并用sql语句操作hive表,以上方法不行,需要其他设置

    4. 代码中操作hive表的sql语句,需要修改以上spark的配置(配置enableHiveSupport().getOrCreate()),不再需要配置sc和conf,直接配置spark,改成:

    spark = SparkSession.builder.master("local").appName("SparkOnHive").enableHiveSupport().getOrCreate()
    hive_text = HiveContext(spark)

    其中 'local' 可以修改成其他 “主机+端口号” 形式,然后可以访问hive表:

    hive_text.sql('use database_name')
    data_3 = hive_text.sql("select * from table_name")
    print(data_3.first())

    而此时,就可以将上述的第3步的表:table_moment 直接写入hive形成新的表

    hive_text.sql('create table default.test_pandas select * from table_moment')

    default是已有的数据库名,test_pandas是新建表名

    参考:

    https://www.jianshu.com/p/d1f6678db183

    https://blog.csdn.net/u011412768/article/details/93426353

    ##

  • 相关阅读:
    Golang 之 casbin(权限管理)
    Golang validate验证器
    商城实战课程
    webstorm上的Element提示插件
    实战高并发大流量秒杀系统
    lettcode 739: 每日温度
    时钟同步 chrony
    linux 文件目录权限命令
    Nginx 四层负载均衡
    Nginx 版本回滚
  • 原文地址:https://www.cnblogs.com/qi-yuan-008/p/12494024.html
Copyright © 2020-2023  润新知