时隔许久的博客。。
系统为Windows 10,Hadoop版本2.8.3。
虽然之前已经在Linux虚拟机上成功运行了Hadoop,但我还是在Windows上编码更加习惯,所以尝试了在Window上安装。
这里主要是归纳出安装过程的简要步骤和可能碰到的问题。
有两点要先注意的:
Java和Hadoop的路径最好不要带空格,如果安装在如Program Files这样带空格的文件夹下,使用路径时可用类似PROGRA~1来代替。
Localhost url不要与已有的冲突,如DLNA。
- winutils
- 环境变量
- 配置文件
- hadcoop-env.cmd
- core-site.xml
- hdfs-site.xml
- mapred-site.xml
- yarn-site.xml
- Let's Hadoop
winutils
除了Hadoop和JDK外,还要下载的一套第三方类库winutils, 下载地址:
https://github.com/steveloughran/winutils
注意:Hadoop与winutils的版本要相对应。
照着列表找到想用的Hadoop,clone一个到本地,把里面所有的文件都覆盖到Hadoop目录的bin子目录下去。
环境变量
我基本是能添的都添了。。
以及path中
其实不一定要都加,实测可以只在path中加入Hadoop的bin,Java可以在hadcoop-env.cmd另行设置。
配置文件
hadcoop-env.cmd
位于Hadoop的etc/hadoop下,设置JAVA_HOME。
set JAVA_HOME=JDK路径
core-site.xml
位于Hadoop的etc/hadoop下,通用配置。
其中tmp.dir和localhost url需自己设置。
<configuration>
<property>
<name>hadoop.tmp.dir</name>
<value>/D:/hadoop-2.8.3/tmp</value>
</property>
<property>
<name>fs.default.name</name>
<value>hdfs://localhost:8000</value>
</property>
</configuration>
hdfs-site.xml
位于Hadoop的etc/hadoop下,HDFS有关配置。
其中name.dir和data.dir需自己预先建立。
<configuration>
<!-- 参数设置为1,单机的hadoop -->
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
<property>
<name>dfs.name.dir</name>
<value>/D:/hadoop-2.8.3/name</value>
</property>
<property>
<name>dfs.data.dir</name>
<value>/D:/hadoop-2.8.3/data</value>
</property>
</configuration>
mapred-site.xml
位于Hadoop的etc/hadoop下,MapReduce有关配置。
mapred-site.xml.template去掉template后缀名。
其中localhost url需自行设置。
<configuration>
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
<property>
<name>mapred.job.tracker</name>
<value>hdfs://localhost:8001</value>
</property>
</configuration>
yarn-site.xml
位于Hadoop的etc/hadoop下,yarn有关配置。
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
<property>
<name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>
<value>org.apache.hadoop.mapred.ShuffleHandler</value>
</property>
</configuration>
Let's Hadoop
自行小黑窗或小蓝窗。
cd D:/hadoop-2.8.3/bin
hadoop namenode -format #一定先要格式化hdfs!!!!!
cd D:/hadoop-2.8.3/sbin
start-dfs.cmd #先启动dfs
start-yarn.cmd #再启动yarn
start-all.cmd #等于上面两条命令的组合
stop-dfs.cmd
stop-yarn.cmd
stop-all.cmd
效果图