总结一下前几天遇到的问题以及解决方案
1.为什么要将RDD转换为DataFrame?
因为这样的话,我们就可以直接针对HDFS等任何可以构建为RDD的数据,
使用Spark SQL进行SQL查询了。这个功能是无比强大的。针对HDFS中的数据,直接就可以使用SQL进行查询。
第一种方式,是使用反射来推断包含了特定数据类型的RDD的元数据。这种基于反射的方式,代码比较简洁,当你已经知道你的RDD的元数据时,是一种非常不错的方式。
第二种方式,是通过编程接口来创建DataFrame,你可以在程序运行时动态构建一份元数据,然后将其应用到已经存在的RDD上。这种方式的代码比较冗长,但是如果在编写程序时,还不知道RDD的元数据,只有在程序运行时,才能动态得知其元数据,那么只能通过这种动态构建元数据的方式。
2.centos彻底卸载mysql
https://www.cnblogs.com/leelice/p/10728129.html
3.构建简单的SparkSqL应用程序出错:object sql is not a member of package org.apache.spark
https://cloud.tencent.com/developer/ask/55890