ITPub博客

首页 > 大数据 > Hadoop > hadoop开发环境配置

hadoop开发环境配置

Hadoop 作者:zhcosin 时间:2013-03-08 14:47:18 0 删除 编辑
软件环境(环境不同会造成配置不成功)
1;windows7  intel hadoop 2.2版本(hadoop1.0.3)  eclipse indigo


2:获取eclipse的hadoop 1.0.3 的插件 放入 plugins目录下面

3:打开eclipse 选择map/reduce的环境


4:在 map/reduce locations下面右键点击选择new hadoop location 在弹出的面板输入hadoop集群map/reduce master的
Jip和端口:50030(就是配置mapred.job.tracker的IP和端口) 配置dfs master的IP和端口(就是配置fs.default.name的IP和端口)

5:集群的hdfs-site.xml 配置属性dfs.permissions,值为false

6:DATAnode无法启动
把配置文件中dfs.data.dir在本地系统的路径下的current/VERSION中的namespaceID改为与namenode中dfs.name.dir本地系统路径下面current/VERSION的namespaceID修改为一样。

7:新建mapreduce project的时候 需要指定hadoop libray location ,把/usr/lib/hadoop文件夹拷贝的本地,指定本地这个文件夹路径。

<!-- 正文结束 -->

来自 “ ITPUB博客 ” ,链接:http://blog.itpub.net/22836155/viewspace-1120271/,如需转载,请注明出处,否则将追究法律责任。

上一篇: 没有了~
下一篇: 没有了~
请登录后发表评论 登录
全部评论

注册时间:2009-11-07