• pyspark获取和处理RDD数据


    弹性分布式数据集(RDD)是一组不可变的JVM对象的分布集,可以用于执行高速运算,它是Apache Spark的核心。

    在pyspark中获取和处理RDD数据集的方法如下:

    1. 首先是导入库和环境配置(本测试在linux的pycharm上完成)

    import os
    from pyspark import SparkContext, SparkConf
    from pyspark.sql.session import SparkSession
    
    os.environ["PYSPARK_PYTHON"]="/usr/bin/python3"
    
    conf = SparkConf().setAppName('test_rdd')
    sc = SparkContext('local', 'test', conf=conf)
    spark = SparkSession(sc)

    2. 然后,提供hdfs分区数据的路径或者分区表名

    txt_File = r"hdfs://host:port/apps/hive/warehouse/数据库名.db/表名/分区名/part-m-00029.deflate"  # part-m-00029.deflate
    # txt_File = r"hdfs://host:port/apps/hive/warehouse/数据库名.db/表名"  # hive table,即也可直接根据表名读取

    3. sc.textFile进行读取,得到RDD格式数据<还可以用 spark.sparkContext.parallelize(data) 来获取RDD数据>,参数中还可设置数据被划分的分区数

    txt_ = sc.textFile(txt_File) 

    4. 基本操作:

    type(txt_):显示数据类型,这时属于 'pyspark.rdd.RDD'

    txt_.first():获取第一条数据

    txt_.take(2):获取前2条数据,形成长度为2的list

    txt_.take(2)[1].split('1')[1]:表示获取前两条中的第[1]条数据(也就是第2条,因为python的索引是从0开始的),并以 '1'字符分隔开(这要看你的表用什么作为分隔符的),形成list,再获取该list的第2条数据

    txt_.map(lambda x:x.split('1')):使用lambda函数和map函数快速处理每一行数据,这里表示将每一行以 '1'字符分隔开,每一行返回一个list;此时数据结构是:'pyspark.rdd.PipelinedRDD'

    txt_.map(lambda x:(x, x.split('1'))).filter(lambda y:y[0].startswith('北京')):表示在返回 (x, x.split('1')) 后,进行筛选filter,获取其中以 '北京' 开头的行,并按照相同格式 (例如,这里是(x, x.split('1'))格式,即原数据+分割后的列表数据) 返回数据

    txt_.collect():返回所有RDD数据元素,当数据量很大时谨慎操作

    txt_.toDF():不能直接转成DataFrame格式,需要设置Schema

    注意:RDD格式不能用show()方法

    ##

  • 相关阅读:
    [置顶] flex4事件监听与自定义事件分发(三)
    不要通过终止进程的方式清理内存
    两个关于XML解析报错问题小记
    HDU H204 阿牛的EOF牛肉串
    <Win32_8>由浅入深——滚动条
    设计模式19---设计模式之状态模式(State)(行为型)
    NetworkX学习笔记-5-NetworkX中怎样对多个网络赋属性,并根据属性排序
    OpenRisc-41-or1200的cache模块分析
    Hibernate 入门的第一个程序
    NDK GDB 中打印vector , vector<vector <> >
  • 原文地址:https://www.cnblogs.com/qi-yuan-008/p/12493434.html
Copyright © 2020-2023  润新知