ITPub博客

首页 > 大数据 > Hadoop > Hadoop集群机器的hosts文件配置

Hadoop集群机器的hosts文件配置

原创 Hadoop 作者:freshairpeng 时间:2014-03-19 11:36:37 0 删除 编辑
Hosts文件配置,想必只要玩过Linux的人,都会配置,这个文件存在于/etc/hosts里,修改每个文件之前,大家记得养成一个好的习惯,做一个备份:
1:cd /etc
2: cp hosts hosts0319
3: vi hosts
在这个文件里,把所有对应的Hadoop集群服务器,对应的IP,Hostname都增加进去。我自己测试用的虚拟机的Host文件如下:
127.0.0.1   localhost.localdomain  localhost
10.16.36.230    HadoopSrv01
10.16.36.231    HadoopSrv02
10.16.36.232    HadoopSrv03

当然在做以上配置之前,大家需要安装好服务器,服务器可以有三种选择:
1: 实体机,直接安装Linux.
2:  性能好的一台服务器上面,通过安装VM, 搭建虚拟机。
3:在一台性能一般的机器上通过搭建伪分布式来模拟测试。

具体硬件选型这块,回头再跟大家一起分享一下。 建议先搭建三个节点,每个节点有可能的话,内存配置到1-4G,硬盘100-500G,1颗2core的CPU,没有条件的话,
1G 内存,20G硬盘,1颗1核CPU 也可以,自己学习的环境 ,都无所谓。

另外还有一个很重要的步骤就是:

1: 一定要关闭防火墙。
2: Disabled Selinux.
以上两个操作,如果大家也不熟悉的话,请找度娘。

来自 “ ITPUB博客 ” ,链接:http://blog.itpub.net/14766526/viewspace-1124753/,如需转载,请注明出处,否则将追究法律责任。

请登录后发表评论 登录
全部评论

注册时间:2009-02-25

  • 博文量
    69
  • 访问量
    247504