ITPub博客

首页 > 大数据 > 可视化 > ubuntu  hadoop环境搭建(2)

ubuntu  hadoop环境搭建(2)

可视化 作者:martar 时间:2013-10-23 20:40:17 0 删除 编辑
步骤六:安装hadoop
        1、下载hadoop: hadoop-1.1.2.tar.gz
        2、将它复制到安装目录 /usr/local/下
          sudo cp  hadoop-1.1.2.tar.gz /usr/local/
        3、解压hadoop-0.20.203.tar.gz
          cd /usr/local
          sudo tar -zxf hadoop-1.1.2.tar.gz
        4、将解压出的文件夹改名为hadoop
           sudo mv  hadoop-1.1.2 hadoop
        5、将该hadoop文件夹的属主用户设为hadoop
           sudo chown -R hadoop:hadoop hadoop
步骤七:配置hadoop
       core-site.xml:    Hadoop Core的配置项,例如HDFS和MapReduce常用的I/O设置等。
        hdfs-site.xml:    Hadoop 守护进程的配置项,包括namenode,辅助namenode和datanode等。
        mapred-site.xml: MapReduce 守护进程的配置项,包括jobtracker和tasktracker。  
首先在hadoop目录下新建几个文件夹
        ~/hadoop$ mkdir tmp
        ~/hadoop$ mkdir hdfs
        ~/hadoop$ mkdir hdfs/name
        ~/hadoop$ mkdir hdfs/data  
        6、配置conf/hadoop-env.sh
          sudo gedit hadoop/conf/hadoop-env.sh
          export JAVA_HOME=/usr/lib/jvm/
         (找到#export JAVA_HOME,去掉#,加上本机jdk的路径)
        7、配置conf/core-site.xml
           sudo gedit hadoop/conf/core-site.xml
          
             
                 fs.default.name
                 hdfs://localhost:9000
              

             
                 hadoop.tmp.dir
                /usr/local/hadoop/tmp
             

          
      8、配置conf/hdfs-site.xml
            sudo gedit hadoop/conf/hdfs-site.xml 
           
                 
                     dfs.replication
                     1
                

                 
                     dfs.name.dir
                     /usr/local/hadoop/hdfs/name
                 

                 
                     dfs.data.dir
                     /usr/local/hadoop/hdfs/data
                

            
       9、配置conf/mapred-site.xml
              
                 
                     mapred.job.tracker
                     localhost:9001
                

              
      10、打开conf/masters文件,添加作为secondarynamenode的主机名,作为单机版环境,这里只需填       localhost 行了       
          sudo gedit hadoop/conf/masters
       11、打开conf/slaves文件,添加作为slave的主机名,一行一个。作为单机版环境,这里也只需填        localhost就行了 
           sudo gedit hadoop/conf/slaves
注意:默认就是localhost,千万别修改为127.0.0.1 localhost虽然正式的多台机器是这样的写法,但是单台机器不需要前面的ip地址,否则会报错。

参考:http://www.cnblogs.com/tippoint/archive/2012/10/23/2735532.html
<!-- 正文结束 -->

来自 “ ITPUB博客 ” ,链接:http://blog.itpub.net/24161960/viewspace-1119508/,如需转载,请注明出处,否则将追究法律责任。

上一篇: 没有了~
下一篇: 没有了~
请登录后发表评论 登录
全部评论

注册时间:2010-06-28