ITPub博客

首页 > 大数据 > Hadoop > 【云凡网络学院】配置Eclipse的Hadoop插件时无法连接HDFS的解决办法

【云凡网络学院】配置Eclipse的Hadoop插件时无法连接HDFS的解决办法

Hadoop 作者:av160 时间:2013-10-18 10:50:49 0 删除 编辑

如果直接将下载Hadoop-eclipse-plugin-0.20.203.0.jar复制到eclipse的插件目录中,在连接DFS时会出现错误,提示信息为: "error: failure to login",弹出的错误提示框内容为"An internal error occurred during: "Connecting to DFS hadoop". org/apache/commons/configuration/Configuration". 经过察看Eclipse的log,发现是缺少jar包导致的。进一步查找资料后,发现直接复制hadoop-eclipse-plugin-0.20.203.0.jar,该包中lib目录下缺少了jar包。

首先要对hadoop-eclipse-plugin-0.20.203.0.jar进行修改。用归档管理器打开该包,发现只有commons-cli-1.2.jar和hadoop-core.jar两个包。将HADOOP_HOME/lib目录下的 commons-configuration-1.6.jar , commons-httpclient-3.0.1.jar , commons-lang-2.4.jar , jackson-core-asl-1.0.1.jar 和 jackson-mapper-asl-1.0.1.jar 等5个包复制到hadoop-eclipse-plugin-0.20.203.0.jar的lib目录下。

然后,修改该包META-INF目录下的MANIFEST.MF,将classpath修改为以下内容:

Bundle-ClassPath: classes/,lib/hadoop-core.jar,lib/commons-cli-1.2.jar,lib/commons-httpclient-3.0.1.jar,lib/jackson-core-asl-1.0.1.jar,lib/jackson-mapper-asl-1.0.1.jar,lib/commons-configuration-1.6.jar,lib/commons-lang-2.4.jar

然后安装插件就ok了,把这个文件放到 Eclipse的安装目录下的plugins,重新启动Eclipse,常规配置就能连接上hdfs。

 

云凡学院第一期hadoop培训即将开始

    云凡网络学院针hadoop零基础,或者转行做hadoop的人士;

开办hadoop第一期课程,享价格优惠,名额有限,报名快快加入交流群:306770165

<!-- 正文结束 -->

来自 “ ITPUB博客 ” ,链接:http://blog.itpub.net/23509800/viewspace-1119408/,如需转载,请注明出处,否则将追究法律责任。

上一篇: 没有了~
下一篇: 没有了~
请登录后发表评论 登录
全部评论

注册时间:2010-03-13