• 寒假自学进度14


    总结一下前几天遇到的问题以及解决方案
    1.为什么要将RDD转换为DataFrame?
    因为这样的话,我们就可以直接针对HDFS等任何可以构建为RDD的数据,
    使用Spark SQL进行SQL查询了。这个功能是无比强大的。针对HDFS中的数据,直接就可以使用SQL进行查询。

    第一种方式,是使用反射来推断包含了特定数据类型的RDD的元数据。这种基于反射的方式,代码比较简洁,当你已经知道你的RDD的元数据时,是一种非常不错的方式。

    第二种方式,是通过编程接口来创建DataFrame,你可以在程序运行时动态构建一份元数据,然后将其应用到已经存在的RDD上。这种方式的代码比较冗长,但是如果在编写程序时,还不知道RDD的元数据,只有在程序运行时,才能动态得知其元数据,那么只能通过这种动态构建元数据的方式。

    链接:https://www.jianshu.com/p/4df4aa54ad15

    2.centos彻底卸载mysql

    https://www.cnblogs.com/leelice/p/10728129.html

    3.构建简单的SparkSqL应用程序出错:object sql is not a member of package org.apache.spark

    https://cloud.tencent.com/developer/ask/55890

     

  • 相关阅读:
    sql中table用法
    sql group by
    C#excel导入
    手写简单JDBC
    连接池+事务
    mysql+jdbc
    mysql(多表)
    jsp标签+jstl
    页面跳转+路径问题
    ajax 动态获取数据库中的值
  • 原文地址:https://www.cnblogs.com/zzstdruan1707-4/p/12327771.html
Copyright © 2020-2023  润新知