Hadoop 伪分布式环境时运行wordcount程序,之前已经运行过一次,再次将input文件夹中的内容上传至HDFS时会出现重复,但是还是可以上传成功。但是当再次运行wordcount程序时就会报错:
可以看到导致错误的原因时HDFS中的output文件夹已经存在了,所以必须要删除。(因为outout文件夹是由hadoop自动生成的,所以会报错)
于是查看HDFS:
删除output文件夹:
问题解决:
Hadoop 伪分布式环境时运行wordcount程序,之前已经运行过一次,再次将input文件夹中的内容上传至HDFS时会出现重复,但是还是可以上传成功。但是当再次运行wordcount程序时就会报错:
可以看到导致错误的原因时HDFS中的output文件夹已经存在了,所以必须要删除。(因为outout文件夹是由hadoop自动生成的,所以会报错)
于是查看HDFS:
删除output文件夹:
问题解决: