实验二-1 win7下给eclipse安装hadoop插件

 

  使用的教程为:

1. windows7+eclipse+hadoop2.5.2环境配置

http://www.cnblogs.com/huligong1234/p/4137133.html

2. Hadoop 在Windows7操作系统下使用Eclipse来搭建Hadoop开发环境

http://www.linuxidc.com/Linux/2014-12/111061.htm

3. eclipse_win7_hadoop1.2.1开发环境搭建1

http://blog.csdn.net/majian_1987/article/details/23941603

   1. 下载安装最新版本Eclipse IDE for Java EE Developers(java环境配置在此不赘述)。

http://www.eclipse.org/downloads/download.php?file=/technology/epp/downloads/release/luna/SR2/eclipse-jee-luna-SR2-win32-x86_64.zip

  2. 将之前编译好的64位的hadoop-2.5.2.tar.gz下载下来,同官网下载的hadoop-2.5.2-src.tar.gz 一样,解压到E:hadoop。并将老羊群里给的hadoop2.5.2(x64).zip也解压到该目录下,如下图:

                       

  3. 添加环境变量HADOOP_HOME=E:hadoophadoop-2.5.2

追加环境变量path内容:%HADOOP_HOME%/bin

以上变量均添加在系统变量而非用户变量中。--------(原因不明)

(后面配置paoding环境变量时是配置在hadoop系统中而非虚拟机系统中------------------------------------------------原因依旧不明)

  4. 下载插件hadoop-eclipse-plugin-2.5.2.jar并将其复制到Eclipse的目录的"plugins"中,然后重新Eclipse即可生效。

  5. 配置Hadoop installation director。打开菜单Window--Preference--Hadoop Map/Reduce进行配置,在窗口右侧设置Hadoop安装路径。如下图所示: 

 

  6. 配置Map/Reduce Locations

打开Windows-->Open Perspective-->Other

选择Map/Reduce,点击OK,在右下方看到有个Map/Reduce Locations的图标,如下图所示:

 

  7. 点击Map/Reduce Location选项卡,点击右边小象图标,打开Hadoop Location配置窗口:输入Location Name,任意名称即可.配置Map/Reduce Master和DFS Mastrer,Host和Port配置成与core-site.xml的设置一致即可。
去找core-site.xml配置:

fs.default.name                                                                        hdfs://master:9000

在界面配置如下:
 

接着点击"Advanced parameters"从中找见"hadoop.tmp.dir",修改成为我们Hadoop集群中设置的地址,我们的Hadoop集群是"/home/hadoop/tmp",这个参数在"core-site.xml"进行了配置。-----------------这步貌似别人并没有做,也成功了,关于advanced parameters的配置还需要还再研究下。

 

书上说的配置用户和用户组的内容在这里没有找到,是在master节点上修改hdfs-site.xml。具体方法见下一页。

  8. 查看HDFS文件系统,并尝试建立文件夹和上传文件。点击Eclipse软件左侧的"DFS Locations"下面的"hadoop2.5.2",就会展示出HDFS上的文件结构。

 报错了。解决方式如下:

a.在master节点上修改hdfs-site.xml加上以下内容

<property>

<name>dfs.permissions</name>  

<value>false</value>  

</property>

旨在取消权限检查,原因是为了解决我在windows机器上配置eclipse连接hadoop服务器时,配置map/reduce连接后报以下错误,org.apache.hadoop.security.AccessControlException:   Permission denied:

如此配置后就可以在Eclipse端操作,而无需打包上传到hadoop上。

b.同样在master节点上修改hdfs-site.xml加上以下内容

<property>

<name>dfs.web.ugi</name>  

<value>Administrator,supergroup</value>  

</property>

原因是运行时,报如下错误 WARN org.apache.hadoop.security.ShellBasedUnixGroupsMapping:   got exception trying to get groups for user jack

应该是我的windows的用户名为jack,无访问权限

更多权限配置可参看官方说明文档:

HDFS权限管理用户指南http://hadoop.apache.org/docs/r1.0.4/cn/hdfs_permissions_guide.html

配置修改完后重启hadoop集群: (貌似最好先stop再修改配置再重启)

stop-dfs.sh

stop-yarn.sh

sbin/start-dfs.sh

sbin/start-yarn.sh

问题解决后不再报错,如下:

 

右击可以尝试建立一个"文件夹--xiapi",然后右击刷新就能查看我们刚才建立的文件夹。可以右键upload一个文件,刷新显示,并在master上查看到,则代表配置完成。

原文地址:https://www.cnblogs.com/qianqianjun/p/4579298.html