1、配置好Hadoop和spark
2、配置好Pytho3.5
3、安装py4j
pip3 install py4j
4、idea 中添加Python插件
file->setting->editor->plugins
右边搜索框中 搜索Python,下载插件
5、下载完后,重启软件,建立Python项目,导入pyspark的包文件
导入步骤:file->project Structure->modules->右边栏中点dependencies->点添加->将"spark/python" 添加进去
6、test:
from pyspark.sql import SparkSession if __name__ == "__main__": spark = SparkSession .builder .master("local") .appName("PythonWordCount") .getOrCreate() data = spark.read.csv("/lab/data/2/02singleentry.csv") data.show(10) spark.stop()
7、目前观察不能读取本地的数据,只能读取HDFS上的数据