云地址:https://pan.baidu.com/s/1CmBAJMdcwCxLGuCwSTcJNw 密码:qocw
前提条件:启动集群 ,配置好JDK和hadoop环境变量 有必要删除 虚拟机中的output文件 使用
[root@master sbin]# hadoop fs -rm -r /output
Deleted /output
[root@master sbin]# ll
给hadoop文件权限
[root@master sbin]# hadoop fs -chmod 777 /
1.打开eclopse的安装包
把下载好的hadoop插件 hadoop-eclipse-plugin-2.6.0.jar放到如上的目录下重启ecliplse
配置hadoop安装路径
选择 window-preferences-hadoop Map/Reduce - hadoop installation directory 命令选择hadoop的安装目录
注意安装目录是你配置环境变量的hadoop不然当你创建wordCount项目的时候会缺少jar包导致不能运行
配置Map/reduce
单击 window-show Perspective--other-Map/Reduce-ok 按钮配置 Map/Reduce视图
单机 window-show View-other-Map/reduce-ok按钮显示 Map/Reduce Locations 选项卡
如图所示配置主机对应
如果你的集群配置成功的话
[root@master sbin]# jps
14036 NameNode
19319 Jps
14570 ResourceManager
14302 SecondaryNameNode
这四个配置文件都有的化
出现如下界面说明连接成功 否侧会包一个
刷新项目
如果到这里啦恭喜成功一半了
接下来需要更改hadoop的bin下的文件
如图打开目录
复制我的百度云里面的jar包hadoop-common-2.2.0-bin-master 不同的eclipse版本可能不同
把这个目录下的所有文件copy到hadoop的bin目录下 替换并增加
回到开发环境
新建woredCount项目
正如上图描述hadoop如果配置成功这些jar包一个也不会少尤其是hadoop的jar
接下来需要我们下载的org包里面的类复制到src目录下为了防止报错
直接copy org整个目录到hello项目的src目录下
接着找到hadoop自带的提供WordCount示例wordCount.java类
改一下包明
就行了
由于文件没有输出所以到hadoop目录下copy一个日志文件
最后一步
hdfs://192.168.10.11:9000/input3
hdfs://192.168.10.11:9000/output/wordcount
直至控制台打印输出
成功