MySQL社区

 找回密码
 注册

QQ登录

只需一步,快速开始

扫一扫,访问微社区

搜索
查看: 1601|回复: 0
打印 上一主题 下一主题

hadoop安装手顺

[复制链接]
跳转到指定楼层
1#
发表于 2016-10-30 10:06:06 | 只看该作者 回帖奖励 |倒序浏览 |阅读模式
非常感谢公司领导、技术专家冀总的指导。
本文用安装hadoop-2.3.0来做示例。
1,准备安装包
    可以使用两种方法来获取安装包,1,直接下载已经编译好的二进制包;2,下载源码,自行编译。
        a,下载安装包
            从以下网址下载安装包:http://mirrors.hust.edu.cn/apach ... hadoop-2.3.0.tar.gz 或者从其他镜像网站也可以。
        b,自己编译
            直接下载的安装包只包括32bit的本地库,希望使用64bit的,需要自行编译。编译方法本文不详述了,网上搜索即可。
2,准备安装操作系统环境
    本文以RHEL 6.2 OS来做说明。
        首先安装os,安装完成之后,安装java虚拟机。java虚拟机可以从官方网站下载最新版本即可。安装完成之后,配置默认java虚拟机为oracle提供的jvm。
        安装jdk的过程类似如下:
        将JDK包解压至/usr/java,并创建软链接
   # chmod +x jdk-6u45-linux-x64.bin
   # ./jdk-6u45-linux-x64.bin
   # mkdir /usr/java
   # mv jdk1.6.0_45 /usr/java
   # cd /usr/java
   # ln -s jdk1.6.0_45 default

        添加用户
        为了方便使用,建议添加hadoop用户。
3,安装
        把安装包传输到/home/hadoop中,解压缩,并改名为/home/hadoop/hadoop。
        添加环境变量:
        export HADOOP_PREFIX=/home/hadoop/hadoop
    PATH=$HADOOP_PREFIX/binPATHHADOOP_PREFIX/sbinHADOOP_PREFIX/sbin
    export PATH
       
        准备数据目录:
        mkdir /home/hadoop/data; mkdir /home/hadoop/data/namenode; mkdir /home/hadoop/data/datanode;
       
        修改参数:/home/hadoop/hadoop/etc下的文件
        core-site.xml
        --------------------------------
        <configuration>
        <property>
         <name>fs.defaultFS</name>
         <value>hdfs://192.168.103.34:9000</value>
        </property>
        <property>
          <name>hadoop.tmp.dir</name>
          <value>/home/hadoop/data/hadoop-${user.name}</value>
        </property>
        <property>
          <name>io.native.lib.available</name>
          <value>false</value>
        </property>
        </configuration>
    ----------------------------------------------------

        hdfs-site.xml
        ------------------------------------------------------
        <configuration>
        <property>
         <name>dfs.replication</name>
          <value>1</value>
        </property>
        <property>
          <name>dfs.namenode.name.dir</name>
          <value>/home/hadoop/data/namenode</value>
        </property>
        <property>
          <name>dfs.datanode.data.dir</name>
          <value>/home/hadoop/data/datanode</value>
        </property>
        <property>
          <name>dfs.namenode.accesstime.precision</name>
                <value>3600000</value>
                <description>The access time for HDFS file is precise upto this value.
                          The default value is 1 hour. Setting a value of 0 disables
                          access times for HDFS.
                </description>
        </property>

        <property>
          <name>dfs.webhdfs.enabled</name>
          <value>true</value>
        </property>
        </configuration>       
        ---------------------------------------
        其中各个参数按需修改。具体的参数意义,参考文档 /home/hadoop/hadoop/share/doc

4,运行
        初始化:
        hdfs namenode -format
       
        初始化完成之后,在各个节点上执行:start-dfs.sh 来启动服务。服务是否启动,可以通过jps来查看。


分享到:  QQ好友和群QQ好友和群 QQ空间QQ空间 腾讯微博腾讯微博 腾讯朋友腾讯朋友 微信微信
收藏收藏 分享淘帖 顶 踩
您需要登录后才可以回帖 登录 | 注册

本版积分规则

QQ|申请友链|小黑屋|Archiver|手机版|MySQL社区 ( 京ICP备07012489号   
联系人:周生; 联系电话:13911732319

GMT+8, 2024-4-25 08:30 , Processed in 0.066531 second(s), 23 queries , Gzip On.

Powered by Discuz! X3.2

© 2001-2013 Comsenz Inc.

快速回复 返回顶部 返回列表