• 实验二-1 win7下给eclipse安装hadoop插件


     

      使用的教程为:

    1. windows7+eclipse+hadoop2.5.2环境配置

    http://www.cnblogs.com/huligong1234/p/4137133.html

    2. Hadoop 在Windows7操作系统下使用Eclipse来搭建Hadoop开发环境

    http://www.linuxidc.com/Linux/2014-12/111061.htm

    3. eclipse_win7_hadoop1.2.1开发环境搭建1

    http://blog.csdn.net/majian_1987/article/details/23941603

       1. 下载安装最新版本Eclipse IDE for Java EE Developers(java环境配置在此不赘述)。

    http://www.eclipse.org/downloads/download.php?file=/technology/epp/downloads/release/luna/SR2/eclipse-jee-luna-SR2-win32-x86_64.zip

      2. 将之前编译好的64位的hadoop-2.5.2.tar.gz下载下来,同官网下载的hadoop-2.5.2-src.tar.gz 一样,解压到E:hadoop。并将老羊群里给的hadoop2.5.2(x64).zip也解压到该目录下,如下图:

                           

      3. 添加环境变量HADOOP_HOME=E:hadoophadoop-2.5.2

    追加环境变量path内容:%HADOOP_HOME%/bin

    以上变量均添加在系统变量而非用户变量中。--------(原因不明)

    (后面配置paoding环境变量时是配置在hadoop系统中而非虚拟机系统中------------------------------------------------原因依旧不明)

      4. 下载插件hadoop-eclipse-plugin-2.5.2.jar并将其复制到Eclipse的目录的"plugins"中,然后重新Eclipse即可生效。

      5. 配置Hadoop installation director。打开菜单Window--Preference--Hadoop Map/Reduce进行配置,在窗口右侧设置Hadoop安装路径。如下图所示: 

     

      6. 配置Map/Reduce Locations

    打开Windows-->Open Perspective-->Other

    选择Map/Reduce,点击OK,在右下方看到有个Map/Reduce Locations的图标,如下图所示:

     

      7. 点击Map/Reduce Location选项卡,点击右边小象图标,打开Hadoop Location配置窗口:输入Location Name,任意名称即可.配置Map/Reduce Master和DFS Mastrer,Host和Port配置成与core-site.xml的设置一致即可。
    去找core-site.xml配置:

    fs.default.name                                                                        hdfs://master:9000

    在界面配置如下:
     

    接着点击"Advanced parameters"从中找见"hadoop.tmp.dir",修改成为我们Hadoop集群中设置的地址,我们的Hadoop集群是"/home/hadoop/tmp",这个参数在"core-site.xml"进行了配置。-----------------这步貌似别人并没有做,也成功了,关于advanced parameters的配置还需要还再研究下。

     

    书上说的配置用户和用户组的内容在这里没有找到,是在master节点上修改hdfs-site.xml。具体方法见下一页。

      8. 查看HDFS文件系统,并尝试建立文件夹和上传文件。点击Eclipse软件左侧的"DFS Locations"下面的"hadoop2.5.2",就会展示出HDFS上的文件结构。

     报错了。解决方式如下:

    a.在master节点上修改hdfs-site.xml加上以下内容

    <property>

    <name>dfs.permissions</name>  

    <value>false</value>  

    </property>

    旨在取消权限检查,原因是为了解决我在windows机器上配置eclipse连接hadoop服务器时,配置map/reduce连接后报以下错误,org.apache.hadoop.security.AccessControlException:   Permission denied:

    如此配置后就可以在Eclipse端操作,而无需打包上传到hadoop上。

    b.同样在master节点上修改hdfs-site.xml加上以下内容

    <property>

    <name>dfs.web.ugi</name>  

    <value>Administrator,supergroup</value>  

    </property>

    原因是运行时,报如下错误 WARN org.apache.hadoop.security.ShellBasedUnixGroupsMapping:   got exception trying to get groups for user jack

    应该是我的windows的用户名为jack,无访问权限

    更多权限配置可参看官方说明文档:

    HDFS权限管理用户指南http://hadoop.apache.org/docs/r1.0.4/cn/hdfs_permissions_guide.html

    配置修改完后重启hadoop集群: (貌似最好先stop再修改配置再重启)

    stop-dfs.sh

    stop-yarn.sh

    sbin/start-dfs.sh

    sbin/start-yarn.sh

    问题解决后不再报错,如下:

     

    右击可以尝试建立一个"文件夹--xiapi",然后右击刷新就能查看我们刚才建立的文件夹。可以右键upload一个文件,刷新显示,并在master上查看到,则代表配置完成。

  • 相关阅读:
    nas存储服务器硬盘出现故障离线导致磁盘阵列失效、服务器无法访问的数据恢复案例
    【北亚vSAN数据恢复案例】异常断电导致vSAN底层数据损坏的数据恢复
    【Vsan数据恢复】供电不稳服务器非正常关机导致vsan架构中虚拟机磁盘文件丢失的数据恢复
    随机数
    字符串和数组截取.....某人可以看看这个,希望能帮到你,
    利用angular与后台的交互
    AngularJS 深入理解 $scope
    angular 后台交换实例
    alert()、confirm()和prompt()的区别与用法
    ReactJs入门教程
  • 原文地址:https://www.cnblogs.com/qianqianjun/p/4579298.html
Copyright © 2020-2023  润新知