• Spark Sql (save and load)


    load:加载数据 ,使其变成dataframe

    save:保存数据 

    load和save默认使用的是parquet格式,当然也可以通过format("json"), format("parquet")转换

    SparkConf conf = new SparkConf().setMaster("local").setAppName("local run")//本地运行

    JavaSparkContext sc = new JacaSparkContext(conf);

    SQLContext sqlContext = new SQLContext(sc);

    DataFrameReader reader = sqlContext.read();

    DataFrame frame = reader.format("json").load("path")//读取json格式

    frame.select("name").write().save("path");//write是生成dataFrameWriter对象   save()保存为parquet格式  可以通过format转换

    SparkSQL写入模式分为很多种

    默认为ERRORIFEISTS

    可以对此进行修改

    write().mode(SaveMode.Append).save(path)//通过叠加文件的方式

    parquest的叠加方式为增加文件

    json的叠加方式为在同一个文件append

  • 相关阅读:
    git 去除对某个文件的版本控制
    10:08 小记
    写读书笔记
    恢复已删除且已添加至暂存区的文件
    第七周
    第六周
    软件测试
    短信获取
    Android-8
    增删改查
  • 原文地址:https://www.cnblogs.com/wjsshide/p/5561332.html
Copyright © 2020-2023  润新知