hadoop平台搭建 多节点详细教程 一次就能搭建成功
hadoop3.2环境搭建分步骤说明

这里要注意 jdk 版本问题,是否支持 hadoop 组件 还有就是配置 JAVA_HOME 这个变量非常重要,因为在 hadoop 启动 的时候,有很多.sh 的脚本需要配置 JAVA_HOME 的绝对路径,这里需 要配置很清楚,到底安装在哪里。 yum install java(yum 不好用就重新安装 yum) 配置环境变量 默认 jre jdk 安装路径是/usr/lib/jvm 下面
最后多节点启动成功这样子
使用环境 WMware 虚拟机(版本没有太多区别) Centos7(不同版本 systemctl 命令有不同) Java1.8(直接 yum 安装的) Hadoop-3.2.0(官网下载) 前几个步骤虚拟机建立,网上带图的配置说明很多,我就不在发 图了,比较简单。需要时刻记住最终搭建是三节点,所以系统配置的 时候 3 台机器都要配置好(如果熟悉可以 1 台复制 3 台改),我的 3 台机器都是 root 用户。
Hadoop3.2 环境搭建(详细步骤)
唾沫星冲锋枪 曾经 2009 年的时候跟着 Yahoo 的展会初识了 hadoop,因为一直 在金融领域 IT 混,也没有真正实践机会,这方面通信、互联网领域 还是比较快。最近因为工作中用的了 hdfs 等相关的东西,所以自己 尝试搭建 hadoop 环境。细致记录搭建过程的每个环节和坑(包含了很 详细的虚拟机配置和 linux 配置,hdfs 单节点或 hadoop 多节点配置) 分享一下,我自己踩坑的配置也都高亮标记黄色。 首先是展示目录(操作时每个步骤都是单独记录的)
hadoop5-linux 关闭防火墙
centos7 命令 停防火墙 service firewalld stop 永久关闭 systemctl disable firewalld 恢复防火墙 systemctl enable firewalld
如何使用Docker构建一个多节点的Hadoop集群

如何使用Docker构建一个多节点的Hadoop集群Hadoop作为一个分布式计算框架,在大数据领域受到广泛应用。
为了实现更加高效的数据处理和存储,构建一个多节点的Hadoop集群至关重要。
本文将介绍如何使用Docker来构建一个多节点的Hadoop集群。
1. 安装Docker首先,我们需要安装Docker。
Docker是一个开源的容器化平台,能够将应用程序和其依赖项打包为一个可移植的容器,方便部署和管理。
安装Docker非常简单,可以参考Docker官方文档来完成。
2. 准备Hadoop镜像在构建Hadoop集群之前,我们需要准备Hadoop的Docker镜像。
可以从Docker Hub上搜索并下载现有的Hadoop镜像,也可以通过编写Dockerfile来构建自定义的Hadoop镜像。
在这里,我们选择下载现有的Hadoop镜像。
3. 创建一个Hadoop网络在Docker中,我们可以使用Docker网络来连接多个容器。
在创建Hadoop集群之前,我们需要创建一个自定义的Docker网络。
通过以下命令创建一个名为"hadoop_net"的网络:```docker network create --driver bridge hadoop_net```4. 创建Hadoop主节点容器接下来,我们可以创建Hadoop集群的主节点容器。
在这里,我们使用Hadoop 的NameNode和ResourceManager角色来代表主节点。
通过以下命令创建一个运行Hadoop的容器,并将其连接到"hadoop_net"网络:```docker run -itd --name master --network hadoop_net hadoop_image```5. 创建Hadoop从节点容器除了主节点,我们还需要创建多个从节点来构建完整的Hadoop集群。
从节点主要负责数据的存储和计算。
一步步教你Hadoop多节点集群安装配置

⼀步步教你Hadoop多节点集群安装配置1、集群部署介绍1.1 Hadoop简介Hadoop是Apache软件基⾦会旗下的⼀个开源分布式计算平台。
以Hadoop分布式⽂件系统HDFS(Hadoop Distributed Filesystem)和MapReduce(Google MapReduce的开源实现)为核⼼的Hadoop为⽤户提供了系统底层细节透明的分布式基础架构。
对于Hadoop的集群来讲,可以分成两⼤类⾓⾊:Master和Salve。
⼀个HDFS集群是由⼀个NameNode和若⼲个DataNode组成的。
其中NameNode作为主服务器,管理⽂件系统的命名空间和客户端对⽂件系统的访问操作;集群中的DataNode管理存储的数据。
MapReduce框架是由⼀个单独运⾏在主节点上的JobTracker和运⾏在每个从节点的TaskTracker共同组成的。
主节点负责调度构成⼀个作业的所有任务,这些任务分布在不同的从节点上。
主节点监控它们的执⾏情况,并且重新执⾏之前的失败任务;从节点仅负责由主节点指派的任务。
当⼀个Job被提交时,JobTracker接收到提交作业和配置信息之后,就会将配置信息等分发给从节点,同时调度任务并监控TaskTracker的执⾏。
从上⾯的介绍可以看出,HDFS和MapReduce共同组成了Hadoop分布式系统体系结构的核⼼。
HDFS在集群上实现分布式⽂件系统,MapReduce在集群上实现了分布式计算和任务处理。
HDFS在MapReduce任务处理过程中提供了⽂件操作和存储等⽀持,MapReduce 在HDFS的基础上实现了任务的分发、跟踪、执⾏等⼯作,并收集结果,⼆者相互作⽤,完成了Hadoop分布式集群的主要任务。
1.2 环境说明我的环境是在虚拟机中配置的,Hadoop集群中包括4个节点:1个Master,2个Salve,节点之间局域⽹连接,可以相互ping通,节点IP地址分布如下:虚拟机系统机器名称IP地址Ubuntu 13.04Master.Hadoop192.168.1.141Ubuntu 9.11Salve1.Hadoop192.168.1.142Fedora 17Salve2.Hadoop192.168.1.137Master机器主要配置NameNode和JobTracker的⾓⾊,负责总管分布式数据和分解任务的执⾏;3个Salve机器配置DataNode和TaskTracker的⾓⾊,负责分布式数据存储以及任务的执⾏。
Hadoop的多节点部署

Hadoop的多节点部署这里用的是Hadoop-0.20.2的版本,不过加上了Hypertable-0.9.4.3的patch.1.部署节点分布:10.250.8.19dev110.250.8.21dev310.20.137.11dev4将以上这些信息放入到/etc/hosts中,并在各个机器上可以相互ping通主机名我们将在dev3上部署(NameNode,DataNode),而dev1,dev4分别作为slave的DataNode2.ssh免登录的配置在hdfs运行时,需要从master控制slave.所以需要控制master免密码ssh登录slave,这里即从dev3面密码登录dev1和dev41)dev3上ssh-keygen-t rsa-P“”-f~/.ssh/id_rsascp~/.ssh/id_rsa.pub itlanger@dev1:/tmp;scp~/.ssh/id_rsa.pub itlanger@dev2:/tmp;2)dev1,dev4,dev3上cat/tmp/id_rsa.pub》/home/itlanger/.ssh/authorized_keys(追加方式添加)cat/tmp/id_rsa.pub》/home/itlanger/.ssh/authorized_keyscat~/.ssh/id_rsa.pub》~/.ssh/authorized_keys(比较重要,这样就不用在启动dev3的NameNode和DataNode时输入密码了,哈哈!)3)确保无密码登录:ssh dev1;ssh dev4;ssh dev33.确保统一的java环境JAVA_HOME=/usr/java/jdk1.6.0_234.Hadoop配置:(三台机器一样做)下载源代码和解压,这个就不说了。
修改文件$HADOOP_HOME/conf/hadoop-env.shexport JAVA_HOME=/usr/java/jdk1.6.0_23修改文件$HADOOP_HOME/conf/core-site.xml设置文件系统为HDFS文件系统,并指定访问host和port<configuration><property><name></name><value>hdfs://dev3:9000</value></property></configuration>修改文件$HADOOP_HOME/conf/hdfs-site.xml设置HDFS文件系统NameNode和DataNode的本地存储位置,并指定复制份数<configuration><property><name>.dir</name><value>/home/itlanger/project/hadoop/hadoop_filesystem/name</value> </property><property><name>dfs.data.dir</name><value>/home/itlanger/project/hadoop/hadoop_filesystem/data</value></property><property><name>dfs.replication</name><value>2</value></property></configuration>5.修改文件$HADOOP_HOME/conf/slaves(仅在dev3上配置)localhost#这里也可以写为dev3dev1dev4同理conf/master文件也可以写为:dev3,效果和localhost没有区别6.格式化NameNode文件系统:(dev3,dev1,dev4)$HADOOP_HOME/bin/hadoop namenode-format7.启动Hadoop:(dev3)$HADOOP_HOME/bin/start-dfs.sh#如果要启动mapreduce则可以用start-all.sh使用浏览器通过“HDFS Web UI”查看HDFS状态:http://dev3:50070/#(需要在本机中的/etc/hosts中也配置dev3,dev1,dev4的解析)注:在Cluster Summary中,可以看到Live Nodes数目为2,HDFS成功启动;浏览HDFS 文件系统,可以看到当前根目录下只存在/tmp文件夹。
hadoop集群安装配置的主要操作步骤-概述说明以及解释

hadoop集群安装配置的主要操作步骤-概述说明以及解释1.引言1.1 概述Hadoop是一个开源的分布式计算框架,主要用于处理和存储大规模数据集。
它提供了高度可靠性、容错性和可扩展性的特性,因此被广泛应用于大数据处理领域。
本文旨在介绍Hadoop集群安装配置的主要操作步骤。
在开始具体的操作步骤之前,我们先对Hadoop集群的概念进行简要说明。
Hadoop集群由一组互联的计算机节点组成,其中包含了主节点和多个从节点。
主节点负责调度任务并管理整个集群的资源分配,而从节点则负责实际的数据存储和计算任务执行。
这种分布式的架构使得Hadoop可以高效地处理大规模数据,并实现数据的并行计算。
为了搭建一个Hadoop集群,我们需要进行一系列的安装和配置操作。
主要的操作步骤包括以下几个方面:1. 硬件准备:在开始之前,需要确保所有的计算机节点都满足Hadoop的硬件要求,并配置好网络连接。
2. 软件安装:首先,我们需要下载Hadoop的安装包,并解压到指定的目录。
然后,我们需要安装Java开发环境,因为Hadoop是基于Java 开发的。
3. 配置主节点:在主节点上,我们需要编辑Hadoop的配置文件,包括核心配置文件、HDFS配置文件和YARN配置文件等。
这些配置文件会影响到集群的整体运行方式和资源分配策略。
4. 配置从节点:与配置主节点类似,我们也需要在每个从节点上进行相应的配置。
从节点的配置主要包括核心配置和数据节点配置。
5. 启动集群:在所有节点的配置完成后,我们可以通过启动Hadoop 集群来进行测试和验证。
启动过程中,我们需要确保各个节点之间的通信正常,并且集群的各个组件都能够正常启动和工作。
通过完成以上这些操作步骤,我们就可以成功搭建一个Hadoop集群,并开始进行大数据的处理和分析工作了。
当然,在实际应用中,还会存在更多的细节和需要注意的地方,我们需要根据具体的场景和需求进行相应的调整和扩展。
Hadoop集群的搭建方法与步骤

Hadoop集群的搭建方法与步骤随着大数据时代的到来,Hadoop作为一种分布式计算框架,被广泛应用于数据处理和分析领域。
搭建一个高效稳定的Hadoop集群对于数据科学家和工程师来说至关重要。
本文将介绍Hadoop集群的搭建方法与步骤。
一、硬件准备在搭建Hadoop集群之前,首先要准备好适合的硬件设备。
Hadoop集群通常需要至少三台服务器,一台用于NameNode,两台用于DataNode。
每台服务器的配置应该具备足够的内存和存储空间,以及稳定的网络连接。
二、操作系统安装在选择操作系统时,通常推荐使用Linux发行版,如Ubuntu、CentOS等。
这些操作系统具有良好的稳定性和兼容性,并且有大量的Hadoop安装和配置文档可供参考。
安装操作系统后,确保所有服务器上的软件包都是最新的。
三、Java环境配置Hadoop是基于Java开发的,因此在搭建Hadoop集群之前,需要在所有服务器上配置Java环境。
下载最新版本的Java Development Kit(JDK),并按照官方文档的指引进行安装和配置。
确保JAVA_HOME环境变量已正确设置,并且可以在所有服务器上运行Java命令。
四、Hadoop安装与配置1. 下载Hadoop从Hadoop官方网站上下载最新的稳定版本,并将其解压到一个合适的目录下,例如/opt/hadoop。
2. 编辑配置文件进入Hadoop的安装目录,编辑conf目录下的hadoop-env.sh文件,设置JAVA_HOME环境变量为Java的安装路径。
然后,编辑core-site.xml文件,配置Hadoop的核心参数,如文件系统的默认URI和临时目录。
接下来,编辑hdfs-site.xml文件,配置Hadoop分布式文件系统(HDFS)的相关参数,如副本数量和数据块大小。
最后,编辑mapred-site.xml文件,配置MapReduce框架的相关参数,如任务调度器和本地任务运行模式。
hadoop集群搭建步骤

hadoop集群搭建步骤Hadoop集群搭建步骤Hadoop是一个开源的分布式计算框架,被广泛应用于大数据处理。
搭建Hadoop集群可以提供高可用性、高性能的分布式计算环境。
下面将介绍Hadoop集群的搭建步骤。
1. 硬件准备需要准备一组具有较高性能的服务器作为集群中的节点。
这些服务器需满足一定的硬件要求,包括处理器、内存和存储空间等。
通常情况下,建议使用至少3台服务器来搭建一个最小的Hadoop集群。
2. 操作系统安装在每台服务器上安装合适的操作系统,例如CentOS、Ubuntu等。
操作系统应该是最新的稳定版本,并且需要进行基本的配置,如网络设置、安装必要的软件和工具等。
3. Java环境配置Hadoop是基于Java开发的,因此需要在每台服务器上安装Java 开发环境。
确保安装的Java版本符合Hadoop的要求,并设置好相应的环境变量。
4. Hadoop安装和配置下载Hadoop的最新稳定版本,并将其解压到指定的目录。
然后,需要进行一些配置来启动Hadoop集群。
主要的配置文件包括hadoop-env.sh、core-site.xml、hdfs-site.xml和mapred-site.xml等。
在hadoop-env.sh文件中,可以设置一些全局的环境变量,如Java路径、Hadoop日志目录等。
在core-site.xml文件中,配置Hadoop的核心设置,如Hadoop的文件系统类型(HDFS)和默认的文件系统地址等。
在hdfs-site.xml文件中,配置HDFS的相关设置,如副本数量、数据块大小等。
在mapred-site.xml文件中,配置MapReduce的相关设置,如任务调度方式、任务跟踪器地址等。
5. 配置SSH免密码登录为了实现集群中各节点之间的通信,需要配置SSH免密码登录。
在每台服务器上生成SSH密钥,并将公钥添加到所有其他服务器的授权文件中,以实现无需密码即可登录其他服务器。
HADOOP大数据平台配置方法(懒人版)

HADOOP大数据平台配置方法(完全分布式,懒人版)一、规划1、本系统包括主节点1个,从节点3个,用Vmware虚拟机实现;2、主节点hostname设为hadoop,IP地址设为192.168.137.100;3、从节点hostname分别设为slave01、slave02,slave03,IP地址设为192.168.137.201、192.168.137.202、192.168137.203。
今后如要扩充节点,依此类推;基本原理:master及slave机器的配置基本上是一样的,所以我们的操作方式就是先配置好一台机器,然后克隆3台机器出来。
这样可以节省大量的部署时间,降低出错的概率。
安装配置第一台机器的时候,一定要仔细,否则一台机器错了所有的机器都错了。
二、前期准备1、在Vmware中安装一台CentOS虚拟机;2、设置主机名(假设叫hadoop)、IP地址,修改hosts文件;3、关闭防火墙;4、删除原有的JRE,安装JDK,设置环境变量;5、设置主节点到从节点的免密码登录(此处先不做,放在第七步做);三、安装Hadoop在hadoop机上以root身份登录系统,按以下步骤安装hadoop:1、将hadoop-1.0.4.tar.gz复制到/usr 目录;2、用cd /usr命令进入/usr目录,用tar –zxvf hadoop-1.0.4.tar.gz进行解压,得到一个hadoop-1.0.4目录;3、为简单起见,用mv hadoop-1.0.4 hadoop命令将hadoop-1.0.4文件夹改名为hadoop;4、用mkdir /usr/hadoop/tmp命令,在hadoop文件夹下面建立一个tmp目录;5、用vi /etc/profile 修改profile文件,在文件最后添加以下内容:export HADOOP_HOME=/usr/hadoopexport PATH=$PATH:$HADOOP_HOME/bin6、用source /usr/profile命令使profile 立即生效;四、配置HadoopHadoop配置文件存放在/usr/hadoop/conf目录下,本次有4个文件需要修改。
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
Hadoop平台搭建说明1.Hadoop节点规划本次安装规划使用三个节点,每个节点都使用centos系统。
三个节点的hostname分别规划为:centoshadoop1、centoshadoop2、centoshadoop3(此处为本教程参数,可根据实际环境情况修改)三个节点的ip地址分别规划为:192.168.65.57、192.168.65.58、192.168.65.59(此处为本教程参数,根据实际环境情况修改)2.平台搭建使用的软件下载如下软件操作系统安装包:Centos6.3_x64Jdk安装包:jdk-6u37-linux-x64.binHadoop安装包:hadoop-1.1.2.tar.gz3.安装centos操作系统安装三个节点的操作系统,安装过程省略。
4.配置centoshadoop1节点4.1.修改节点hostname[root@localhost ~]# vi /etc/sysconfig/networkHOSTNAME=centoshadoop1[root@localhost ~]# vi /etc/hosts……192.168.65.57 centoshadoop1192.168.65.58centoshadoop2192.168.65.59centoshadoop3[root@localhost ~]#reboot4.2.关闭iptables防火墙[root@centoshadoop1~]#service iptables stop注意每次操作系统重启后都要操作4.3.建立无ssh密码登陆生成签名文件[root@centoshadoop1~]#cd /root[root@centoshadoop1~]#ssh-keygen -t dsa -P '' -f ~/.ssh/id_dsa[root@centoshadoop1~]#cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys [root@centoshadoop1~]#测试本地SSH无密码登录[root@centoshadoop1~]#sshcentoshadoop14.4.安装jdk上传jdk-6u37-linux-x64.bin到/root目录下[root@centoshadoop1~]#chmod 777 jdk-6u37-linux-x64.bin[root@centoshadoop1~]#./jdk-6u37-linux-x64.bin[root@centoshadoop1~]#ll查看生成jdk-6u37-linux-x64目录4.5.安装hadoop软件上传hadoop-1.1.2.tar.gz到/root目录下[root@centoshadoop1~]#tar -zvxf hadoop-1.1.2.tar.gz[root@centoshadoop1~]#ll查看生成hadoop-1.1.2目录[root@centoshadoop1~]#vi /conf/core-site.xml<?xml version="1.0"?><?xml-stylesheet type="text/xsl" href="configuration.xsl"?><!-- Put site-specific property overrides in this file. --><configuration><property><name></name><value>hdfs://192.168.65.57:9000</value></property><property><name>hadoop.tmp.dir</name><value>/root/hadoop-1.1.2/tmp</value></property></configuration>[root@centoshadoop1~]#vi hdfs-site.xml<?xml version="1.0"?><?xml-stylesheet type="text/xsl" href="configuration.xsl"?> <!-- Put site-specific property overrides in this file. --><configuration><property><name>dfs.replication</name><value>1</value></property></configuration>[root@centoshadoop1~]#vi mapred-site.xml<?xml version="1.0"?><?xml-stylesheet type="text/xsl" href="configuration.xsl"?> <!-- Put site-specific property overrides in this file. --><configuration><property><name>mapred.job.tracker</name><value>192.168.65.57:9001</value></property></configuration>4.6.配置hadoop数据节点[root@centoshadoop1~]#vi /root/hadoop-1.1.2/conf/masters 192.168.65.57 #secondaryNameNode[root@centoshadoop1~]#vi /root/hadoop-1.1.2/conf/slaves 192.168.65.58 #datanode192.168.65.59 #datanode4.7.添加环境变量[root@centoshadoop1~]#cd /root[root@centoshadoop1~]#vi /etc/profileexport JAVA_HOME=/root/jdk1.6.0_37export JRE_HOME=/root/jdk1.6.0_37/jreexport HADOOP_HOME=/root/hadoop-1.1.2export HADOOP_HOME_WARN_SUPPRESS=1export CLASSPATH=.:$JAVA_HOME/lib:$JRE_HOME/lib:$HADOOP_HOME/lib:$CLASSPATH export PATH=$JAVA_HOME/bin:$JRE_HOME/bin:$HADOOP_HOME/bin:$PATH[root@centoshadoop1~]#vi ~/.bashrcexport JAVA_HOME=/root/jdk1.6.0_37export JRE_HOME=/root/jdk1.6.0_37/jreexport HADOOP_HOME=/root/hadoop-1.1.2export HADOOP_DEV_HOME=/root/hadoop-1.1.2export HADOOP_COMMON_HOME=/root/hadoop-1.1.2export HADOOP_HDFS_HOME=/root/hadoop-1.1.2export HADOOP_CONF_DIR=/root/hadoop-1.1.2/conf[root@centoshadoop1~]#vi /root/hadoop-1.1.2/conf/hadoop-env.shexport JAVA_HOME=/root/jdk1.6.0_37export HADOOP_HOME_WARN_SUPPRESS=1export HADOOP_CLASSPATH=/root/hadoop-1.1.2:/root/hadoop-1.1.2/lib5.配置centoshadoop2节点5.1.修改节点hostname[root@localhost ~]# vi /etc/sysconfig/networkHOSTNAME=centoshadoop2[root@localhost ~]# vi /etc/hosts……192.168.65.57 centoshadoop1192.168.65.58 centoshadoop2192.168.65.59 centoshadoop3[root@localhost ~]#reboot5.2.关闭iptables防火墙[root@centoshadoop1~]#service iptables stop注意每次操作系统重启后都要操作5.3.建立无ssh密码登陆将centoshadoop1节点上/root/.ssh目录下的authorized_keys、known_hosts 、id_rsa.pub、id_rsa四个文件拷贝到本机的/root/.ssh目录下5.4.安装jdk上传jdk-6u37-linux-x64.bin到/root目录下[root@centoshadoop1~]#chmod 777 jdk-6u37-linux-x64.bin[root@centoshadoop1~]#./jdk-6u37-linux-x64.bin[root@centoshadoop1~]#ll查看生成jdk-6u37-linux-x64目录5.5.安装hadoop软件上传hadoop-1.1.2.tar.gz到/root目录下[root@centoshadoop1~]#tar -zvxf hadoop-1.1.2.tar.gz[root@centoshadoop1~]#ll查看生成hadoop-1.1.2目录[root@centoshadoop1~]#vi /conf/core-site.xml<?xml version="1.0"?><?xml-stylesheet type="text/xsl" href="configuration.xsl"?><!-- Put site-specific property overrides in this file. --><configuration><property><name></name><value>hdfs://192.168.65.57:9000</value></property><property><name>hadoop.tmp.dir</name><value>/root/hadoop-1.1.2/tmp</value></property></configuration>[root@centoshadoop1~]#vi hdfs-site.xml<?xml version="1.0"?><?xml-stylesheet type="text/xsl" href="configuration.xsl"?><!-- Put site-specific property overrides in this file. --><configuration><property><name>dfs.replication</name><value>1</value></property></configuration>[root@centoshadoop1~]#vi mapred-site.xml<?xml version="1.0"?><?xml-stylesheet type="text/xsl" href="configuration.xsl"?><!-- Put site-specific property overrides in this file. --><configuration><property><name>mapred.job.tracker</name><value>192.168.65.57:9001</value></property></configuration>5.6.添加环境变量[root@centoshadoop1~]#cd /root[root@centoshadoop1~]#vi /etc/profileexport JAVA_HOME=/root/jdk1.6.0_37export JRE_HOME=/root/jdk1.6.0_37/jreexport HADOOP_HOME=/root/hadoop-1.1.2export HADOOP_HOME_WARN_SUPPRESS=1export CLASSPATH=.:$JAVA_HOME/lib:$JRE_HOME/lib:$HADOOP_HOME/lib:$CLASSPATH export PATH=$JAVA_HOME/bin:$JRE_HOME/bin:$HADOOP_HOME/bin:$PATH[root@centoshadoop1~]#vi ~/.bashrcexport JAVA_HOME=/root/jdk1.6.0_37export JRE_HOME=/root/jdk1.6.0_37/jreexport HADOOP_HOME=/root/hadoop-1.1.2export HADOOP_DEV_HOME=/root/hadoop-1.1.2export HADOOP_COMMON_HOME=/root/hadoop-1.1.2export HADOOP_HDFS_HOME=/root/hadoop-1.1.2export HADOOP_CONF_DIR=/root/hadoop-1.1.2/conf[root@centoshadoop1~]#vi /root/hadoop-1.1.2/conf/hadoop-env.shexport JAVA_HOME=/root/jdk1.6.0_37export HADOOP_HOME_WARN_SUPPRESS=1export HADOOP_CLASSPATH=/root/hadoop-1.1.2:/root/hadoop-1.1.2/lib6.配置centoshadoop3节点6.1.修改节点hostname[root@localhost ~]# vi /etc/sysconfig/networkHOSTNAME=centoshadoop3[root@localhost ~]# vi /etc/hosts……192.168.65.57 centoshadoop1192.168.65.58 centoshadoop2192.168.65.59 centoshadoop3[root@localhost ~]#reboot关闭iptables防火墙、建立无ssh密码登陆、安装jdk、安装hadoop软件、添加环境变量等操作跟“配置centoshadoop2节点”完全相同7.启动运行hadoop平台7.1.首先执行格式化[root@centoshadoop1~]#hadoop namenode –format注意:core-site.xml、hdfs-site.xml、mapred-site.xml等配置文件变化后都需要执行格式化7.2.启动hadoop[root@centoshadoop1~]#start-all.sh7.3.停止hadoop[root@centoshadoop1~]#stop-all.sh7.4.查看hadoop运行状态查看hadoop启动的进程[root@centoshadoop1~]#jps查看hadoop集群状态[root@centoshadoop1~]#hadoop dfsadmin -report 查看hadoop中的目录情况[root@centoshadoop1~]#hadoop fs –ls /。