mysqlmpp123 发表于 2016-10-30 10:06:06

hadoop安装手顺

非常感谢公司领导、技术专家冀总的指导。
本文用安装hadoop-2.3.0来做示例。
1,准备安装包
    可以使用两种方法来获取安装包,1,直接下载已经编译好的二进制包;2,下载源码,自行编译。
        a,下载安装包
          从以下网址下载安装包:http://mirrors.hust.edu.cn/apache/hadoop/common/hadoop-2.3.0/hadoop-2.3.0.tar.gz 或者从其他镜像网站也可以。
        b,自己编译
          直接下载的安装包只包括32bit的本地库,希望使用64bit的,需要自行编译。编译方法本文不详述了,网上搜索即可。
2,准备安装操作系统环境
    本文以RHEL 6.2 OS来做说明。
        首先安装os,安装完成之后,安装java虚拟机。java虚拟机可以从官方网站下载最新版本即可。安装完成之后,配置默认java虚拟机为oracle提供的jvm。
        安装jdk的过程类似如下:
        将JDK包解压至/usr/java,并创建软链接
   # chmod +x jdk-6u45-linux-x64.bin
   # ./jdk-6u45-linux-x64.bin
   # mkdir /usr/java
   # mv jdk1.6.0_45 /usr/java
   # cd /usr/java
   # ln -s jdk1.6.0_45 default

        添加用户
        为了方便使用,建议添加hadoop用户。
3,安装
        把安装包传输到/home/hadoop中,解压缩,并改名为/home/hadoop/hadoop。
        添加环境变量:
        export HADOOP_PREFIX=/home/hadoop/hadoop
    PATH=$HADOOP_PREFIX/bin:$PATH:$HADOOP_PREFIX/sbin:$HADOOP_PREFIX/sbin
    export PATH
       
        准备数据目录:
        mkdir /home/hadoop/data; mkdir /home/hadoop/data/namenode; mkdir /home/hadoop/data/datanode;
       
        修改参数:/home/hadoop/hadoop/etc下的文件
        core-site.xml
        --------------------------------
        <configuration>
        <property>
         <name>fs.defaultFS</name>
         <value>hdfs://192.168.103.34:9000</value>
        </property>
        <property>
          <name>hadoop.tmp.dir</name>
          <value>/home/hadoop/data/hadoop-${user.name}</value>
        </property>
        <property>
          <name>io.native.lib.available</name>
          <value>false</value>
        </property>
        </configuration>
    ----------------------------------------------------

        hdfs-site.xml
        ------------------------------------------------------
        <configuration>
        <property>
         <name>dfs.replication</name>
          <value>1</value>
        </property>
        <property>
          <name>dfs.namenode.name.dir</name>
          <value>/home/hadoop/data/namenode</value>
        </property>
        <property>
          <name>dfs.datanode.data.dir</name>
          <value>/home/hadoop/data/datanode</value>
        </property>
        <property>
          <name>dfs.namenode.accesstime.precision</name>
                <value>3600000</value>
                <description>The access time for HDFS file is precise upto this value.
                          The default value is 1 hour. Setting a value of 0 disables
                          access times for HDFS.
                </description>
        </property>

        <property>
          <name>dfs.webhdfs.enabled</name>
          <value>true</value>
        </property>
        </configuration>       
        ---------------------------------------
        其中各个参数按需修改。具体的参数意义,参考文档 /home/hadoop/hadoop/share/doc

4,运行
        初始化:
        hdfs namenode -format
       
        初始化完成之后,在各个节点上执行:start-dfs.sh 来启动服务。服务是否启动,可以通过jps来查看。


页: [1]
查看完整版本: hadoop安装手顺