Hadoop云计算平台搭建最详细过程(共22页)

Hadoop云计算平台搭建最详细过程(共22页)
Hadoop云计算平台搭建最详细过程(共22页)

Hadoop云计算平台及相关组件搭建安装过程详细教程

——Hbase+Pig+Hive+Zookeeper+Ganglia+Chukwa+Eclipse等

一.安装环境简介

根据官网,Hadoop已在linux主机组成的集群系统上得到验证,而windows平台是作为开发平台支持的,由于分布式操作尚未在windows平台上充分测试,所以还不作为一个生产平台。Windows下还需要安装Cygwin,Cygwin是在windows平台上运行的UNIX模拟环境,提供上述软件之外的shell支持。

实际条件下在windows系统下进行Hadoop伪分布式安装时,出现了许多未知问题。在linux系统下安装,以伪分布式进行测试,然后再进行完全分布式的实验环境部署。Hadoop完全分布模式的网络拓补图如图六所示:

(1)网络拓补图如六所示:

图六完全分布式网络拓补图

(2)硬件要求:搭建完全分布式环境需要若干计算机集群,Master和Slaves 处理器、内存、硬盘等参数要求根据情况而定。

(3)软件要求

操作系统64位版本:

并且所有机器均需配置SSH免密码登录。

二. Hadoop集群安装部署

目前,这里只搭建了一个由三台机器组成的小集群,在一个hadoop集群中有以下角色:Master和Slave、JobTracker和TaskTracker、NameNode和DataNode。下面为这三台机器分配IP地址以及相应的角色:

——master,namenode,jobtracker——master(主机名)

——slave,datanode,tasktracker——slave1(主机名)

——slave,datanode,tasktracker——slave2(主机名)

实验环境搭建平台如图七所示:

图七 hadoop集群实验平台

并且,Hadoop要求集群上每台的用户账户名和密码相同。具体安装步骤如下:(1)下载和安装JDK,版本为的安装目录为/usr/lib/jvm,创建此文件夹,在终端输入命令:

mkdir /usr/lib/jvm

(2)权限不够的话重新改下用户密码就可以了,命令: sudo passwd,之后重新输入密码。

(3)移动jdk到/usr/lib/jvm,并解压,然后为了节省空间删除安装包。命令: mv /usr/lib/jvm

1.tar –zxvf –rf 配置环境变量

在终端输入命令:sudo gedit /etc/profile

打开profile文件,在文件最下面输入如下内容,如图八所示:

图八 JAVA环境变量设置

即为:

# set java environment

export JAVA_HOME=/usr/lib/jvm/

CLASSPATH=”.:$JAVA_HOME/lib:$CLASSPATH”

export PATH=”$JAVA_HOME/:$PATH”

这一步的意义是配置环境变量,使系统可以找到jdk。

2.验证JDK是否安装成功

(1)输入命令:java –version,如图九所示。如果出现java版本信息,说明当前安装的jdk并未设置成ubuntu系统默认的jdk,接下来还需要手

动将安装的jdk设置成系统默认的jdk。

图九 java版本信息

(2)手动设置需输入以下命令:

sudo update-alternatives –install /usr/bin/java java /usr/lib/jvm/ 300

sudo update-alternatives –install /usr/bin/javac javac /usr/lib/jvm/ 300

sudo update-alternatives –config java

然后输入java –version就可以看到所安装的jdk的版本信息。

3.三台主机上分别设置/etc/hosts和/etc/hostname

Hosts这个文件用于定义主机名和IP地址之间的对应关系,而hostname这个文件用于定义你的Ubuntu的主机名。

(1)修改/etc/hosts,命令sudo gedit /etc/hosts

localhost

master

slave1

slave2

(2)修改/etc/hostname,命令 sudo gedit /etc/hostname(修改完重启有效) master

以及slave1 ,slave2

4.在这两台主机上安装OpenSSH,并配置SSH可以免密码登录

(1)确认已经连接上网,输入命令:

sudo apt-get install ssh

(2)配置为可以免密码登录本机,接下来输入命令:

ssh-keygen –t dsa –P ‘’ –f ~/.ssh/id_dsa

解释一下,ssh-keygen 代表生成密匙,-t表示指定生成的密匙类型,dsa

是密匙认证的意思,即密匙类型,-P用于提供密语,-f指定生成的密匙

文件。这个命令会在.ssh文件夹下创建id_dsa以及两个文件,这是ssh

一对私匙和公匙,把追加到授权的key中。输入命令:

cat ~/.ssh/ >> ~/.ssh/authorized_keys

(3)验证ssh是否已经安装成功,输入命令:ssh –version。

将文件复制到slave主机相同的文件夹内,输入命令:

scp authorized_keys slave1:~/.ssh/

scp authorized_keys slave2:~/.ssh/

(4)看是否可以从master主机免密码登录slave,输入命令:

ssh slave1

ssh slave2

5.配置两台主机的Hadoop文件

首先到Hadoop的官网下载包,默认讲Hadoop解压到 /home/u(你的Ubuntu用户名)/ 目录下

(1)进入hadoop内的conf文件夹,找到,修改:

export JAVA_HOME=/usr/lib/jvm/,指定JDK的安装位置,如图十所示:

图十 JAVA_HOME 路径设置

(2)修改,这是Hadoop的核心配置文件,这里配置的是HDFS的地址及端号:

/tmp

(3)修改

2

(4)修改

master:9001

(5)修改conf/masters

master

(6)修改conf/slaves

slave1

slave2

6.启动hadoop

在启动之前,需要格式化hadoop的文件系统HDFS,进入hadoop文件夹,输入命令格式化:bin/hadoop namenode –format,如图十一所示:

相关主题
相关文档
最新文档