hadoop安装手顺
非常感谢公司领导、技术专家冀总的指导。本文用安装hadoop-2.3.0来做示例。
1,准备安装包
可以使用两种方法来获取安装包,1,直接下载已经编译好的二进制包;2,下载源码,自行编译。
a,下载安装包
从以下网址下载安装包:http://mirrors.hust.edu.cn/apache/hadoop/common/hadoop-2.3.0/hadoop-2.3.0.tar.gz 或者从其他镜像网站也可以。
b,自己编译
直接下载的安装包只包括32bit的本地库,希望使用64bit的,需要自行编译。编译方法本文不详述了,网上搜索即可。
2,准备安装操作系统环境
本文以RHEL 6.2 OS来做说明。
首先安装os,安装完成之后,安装java虚拟机。java虚拟机可以从官方网站下载最新版本即可。安装完成之后,配置默认java虚拟机为oracle提供的jvm。
安装jdk的过程类似如下:
将JDK包解压至/usr/java,并创建软链接
# chmod +x jdk-6u45-linux-x64.bin
# ./jdk-6u45-linux-x64.bin
# mkdir /usr/java
# mv jdk1.6.0_45 /usr/java
# cd /usr/java
# ln -s jdk1.6.0_45 default
添加用户
为了方便使用,建议添加hadoop用户。
3,安装
把安装包传输到/home/hadoop中,解压缩,并改名为/home/hadoop/hadoop。
添加环境变量:
export HADOOP_PREFIX=/home/hadoop/hadoop
PATH=$HADOOP_PREFIX/bin:$PATH:$HADOOP_PREFIX/sbin:$HADOOP_PREFIX/sbin
export PATH
准备数据目录:
mkdir /home/hadoop/data; mkdir /home/hadoop/data/namenode; mkdir /home/hadoop/data/datanode;
修改参数:/home/hadoop/hadoop/etc下的文件
core-site.xml
--------------------------------
<configuration>
<property>
<name>fs.defaultFS</name>
<value>hdfs://192.168.103.34:9000</value>
</property>
<property>
<name>hadoop.tmp.dir</name>
<value>/home/hadoop/data/hadoop-${user.name}</value>
</property>
<property>
<name>io.native.lib.available</name>
<value>false</value>
</property>
</configuration>
----------------------------------------------------
hdfs-site.xml
------------------------------------------------------
<configuration>
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
<property>
<name>dfs.namenode.name.dir</name>
<value>/home/hadoop/data/namenode</value>
</property>
<property>
<name>dfs.datanode.data.dir</name>
<value>/home/hadoop/data/datanode</value>
</property>
<property>
<name>dfs.namenode.accesstime.precision</name>
<value>3600000</value>
<description>The access time for HDFS file is precise upto this value.
The default value is 1 hour. Setting a value of 0 disables
access times for HDFS.
</description>
</property>
<property>
<name>dfs.webhdfs.enabled</name>
<value>true</value>
</property>
</configuration>
---------------------------------------
其中各个参数按需修改。具体的参数意义,参考文档 /home/hadoop/hadoop/share/doc
4,运行
初始化:
hdfs namenode -format
初始化完成之后,在各个节点上执行:start-dfs.sh 来启动服务。服务是否启动,可以通过jps来查看。
页:
[1]