实验文档1-部署Hadoop
虚拟化与云计算实验报告

虚拟化与云计算实验报告目录一、实验目的 (1)二、实验内容 (1)三、实验原理 (1)四、实验步骤及实验结果 (5)五、实验遇到的问题及其解决方法 (9)六、实验结论 (10)一、实验目的实验一:1.掌握在Linux上配置iSCSI target服务的方法。
2.掌握在不同的操作系统平台上使用iSCSI initiator的方法。
实验三:1.掌握在集群上(使用虚拟机模拟)安装部署Hadoop-HDFS的方法。
2.掌握在HDFS运行MapReduce任务的方法3.理解MapReduce编程模型的原理,初步使用MapReduce模型编程。
二、实验内容实验一: 配置和使用SAN存储,设置连接IP SAN设备;实验三: 安装、部署、使用Hadoop-HDFS和配置运行MapReduce程序,使用MapReduce编程。
三、实验原理实验一:SAN(Storage Area Network,存储局域网络)的诞生,使存储空间得到更加充分的利用以及管理更加有效。
SAN是一种将存储设备、连接设备和接口集成在一个高速网络中的技术。
SAN本身就是一个存储网络,承担了数据存储任务,SAN 网络与LAN业务网络相隔离,存储数据流不会占用业务网络带宽。
在SAN网络中,所有的数据传输在高速、高带宽的网络中进行,SAN存储实现的是直接对物理硬件的块级存储访问,提高了存储的性能和升级能力。
早期的SAN采用的是光纤通道(FC,Fiber Channel)技术,所以,以前的SAN多指采用光纤通道的存储局域网络,到了iSCSI协议出现以后,为了区分,业界就把SAN分为FC SAN 和IP SAN。
iSCSI(互联网小型计算机系统接口)是一种在TCP/IP上进行数据块传输的标准。
它是由Cisco和IBM两家发起的,并且得到了各大存储厂商的大力支持。
iSCSI 可以实现在IP网络上运行SCSI协议,使其能够在诸如高速千兆以太网上进行快速的数据存取备份操作。
Hadoop集群配置详细

Linux系统配置
7安装JDK 将JDK文件解压,放到/usr/java目录下 cd /home/dhx/software/jdk mkdir /usr/java mv jdk1.6.0_45.zip /usr/java/
cd /usr/java
unzip jdk1.6.0_45.zip
从当前用户切换root用户的命令如下: 编辑主机名列表的命令
从当前用户切换root用户的命令如下:
Linux系统配置
操作步骤需要在HadoopMaster和HadoopSlave节点
上分别完整操作,都是用root用户。 从当前用户切换root用户的命令如下:
su root
从当前用户切换root用户的命令如下:
Linux系统配置
1拷贝软件包和数据包 mv ~/Desktop/software ~/
环境变量文件中,只需要配置JDK的路径
gedit conf/hadoop-env.sh
从当前用户切换root用户的命令如下: 编辑主机名列表的命令
Hadoop配置部署
3配置核心组件core-site.xml
gedit conf/core-site.xml
<configuration> <property> <name></name> /*2.0后用 fs.defaultFS代替*/ <value>hdfs://master:9000</value> </property> <property> <name>hadoop.tmp.dir</name> <value>/home/dhx/hadoopdata</value> </property> </configuration>
Hadoop环境配置与实验报告

李富豪
Байду номын сангаас
学号
131440
计算机新技术综合实践
2014 年 4 月 至 2014 年 6 月 周学时 1 学分 2
简
(1) 小组答辩过程表述很清晰;
要
(2) 实验结果的演示表明搭建的系统以及编写的程序很好地满
评
足功能要求;
(3) 报告内容很好地符合要求。
语
考核论题 总评成绩 (含平时成绩)
备注
任课教师签名:
3 Java 环境安装 ...................................................................................................................... 9 3.1 安装 JDK ...................................................................................................................... 10 3.2 配置环境变量 ............................................................................................................. 10 3.2.1 编辑"/etc/profile"文件 ........................................................................................ 10 3.2.2 添加 Java 环境变量 ............................................................................................. 10 3.2.3 使配置生效.......................................................................................................... 10 3.3 验证安装成功 ............................................................................................................. 10 3.4 安装剩余机器 ............................................................................................................. 11
基于Kubernetes平台部署Hadoop实践

基于Kubernetes平台上部署Hadoop实践Hadoop与Kubernetes就好像江湖里的两大绝世高手,一个是成名已久的长者,至今仍然名声远扬,一个则是初出茅庐的青涩少年,骨骼惊奇,不走寻常路,一出手便惊诧了整个武林。
Hadoop与Kubernetes 之间有很深的渊源,因为都出自IT豪门——Google,只不过,后者是亲儿子,正因为有大佬背书,所以Kubernetes一出山,江湖各路门派便都蜂拥而至,拥护称王。
不知道是因为Hadoop是干儿子的缘故还是因为“廉颇老矣”,总之,Hadoop朋友圈的后辈们如Spark、Storm等早都有了在Kubernetes上部署运行的各种资料和案例,但Hadoop却一直游离于Kubernetes 体系之外,本文我们给出Hadoop在Kubernetes上的实践案例,以弥补这种缺憾。
Hadoop容器化的资料不少,但Hadoop部署在Kubernetes上的资料几乎没有,这主要是以下几个原因导致的:第一,Hadoop集群重度依赖DNS机制,一些组件还使用了反向域名解析,以确定集群中的节点身份,这对Hadoop在Kubernetes上的建模和运行带来极大挑战,需要深入了解Hadoop集群工作原理并且精通Kubernetes,才能很好解决这一难题。
第二,Hadoop新的Map-Reduce计算框架Yarn的模型出现的比较晚,它的集群机制要比HDFS复杂,资料也相对较少,增加了Hadoop整体建模与迁移Kubernetes平台的难度。
第三,Hadoop与Kubernetes分别属于两个不同的领域,一个是传统的大数据领域,一个是新兴的容器与微服务架构领域,这两个领域之间交集本来很小,加之Hadoop最近几年已经失去焦点(这点从百度搜索关键词就能发现),所以,没有多少人关注和研究Hadoop在Kubernetes的部署问题,也是情理之中的事情。
Hadoop 2.0其实是由两套完整的集群所组成,一个是基本的HDFS文件集群,一个是YARN资源调度集群,如下图所示:因此在Kubernetes建模之前,我们需要分别对这两种集群的工作机制和运行原理做出深入的分析,下图是HDFS集群的架构图:我们看到,HDFS集群是由NameNode(Master节点)和Datanode(数据节点)等两类节点所组成,其中,客户端程序(Client)以及DataNode节点会访问NameNode,因此,NameNode节点需要建模为Kubernetes Service以提供服务,以下是对应的Service定义文件:apiVersion: v1kind: Servicemetadata:name: k8s-hadoop-masterspec:type: NodePortselector:app: k8s-hadoop-masterports:- name: rpcport: 9000targetPort: 9000- name: httpport: 50070targetPort: 50070nodePort: 32007其中,NameNode节点暴露2个服务端口:▪9000端口用于内部IPC通信,主要用于获取文件的元数据▪50070端口用于HTTP服务,为Hadoop 的Web管理使用为了减少Hadoop镜像的数量,我们构建了一个镜像,并且通过容器的环境变量HADOOP_NODE_TYPE 来区分不同的节点类型,从而启动不同的Hadoop组件,下面是镜像里的启动脚本startnode.sh的内容:#!/usr/bin/env bashsed-i"s/@HDFS_MASTER_SERVICE@/$HDFS_MASTER_SERVICE/g"$HADOOP_HOME/etc/hadoop/core-site .xmlsed-i"s/@HDOOP_YARN_MASTER@/$HDOOP_YARN_MASTER/g"$HADOOP_HOME/etc/hadoop/yarn-site.xml yarn-masterHADOOP_NODE="${HADOOP_NODE_TYPE}"if [ $HADOOP_NODE = "datanode" ]; thenecho"Start DataNode ..."hdfsdatanode -regularelseif [ $HADOOP_NODE = "namenode" ]; thenecho"Start NameNode ..."hdfsnamenodeelseif [ $HADOOP_NODE = "resourceman" ]; thenecho"Start Yarn Resource Manager ..."yarn resourcemanagerelseif [ $HADOOP_NODE = "yarnnode" ]; thenecho"Start Yarn Resource Node ..."yarn nodemanagerelseecho"not recoginizednodetype "fifififi我们注意到,启动命令里把Hadoop配置文件(core-site.xml与yarn-site.xml)中的HDFS Master节点地址用环境变量中的参数HDFS_MASTER_SERVICE来替换,YARN Master节点地址则用HDOOP_YARN_MASTER来替换。
Hadoop生态系统及开发 实训手册 实训15 Kafka集群部署

实训6.3 Kafka集群部署L实训I目的通过本实训,了解Kafka的基本概念,理解Kafka工作原理,安装部署Kafka 集群。
2 .实训内容本实训通过安装和配置Kafka,学会执行Kafka,并且校验集群是否搭建成功。
3 .实训要求以小组为单元进行实训,每小组5人,小组自协商选一位组长,由组长安排和分配实训任务,具体参考实训操作环节。
小组成员需确保ZoOKeePer集群是否安装准确。
4 .准备知识(1) Kafka概念趣解①PrOdUCer:生产者,就是它来生产“鸡蛋”的。
②COnSUmer:消费者,生出的“鸡蛋”它来消费。
③TOPic:把它理解为标签,生产者每生产出来一个鸡蛋就贴上一个标签(Topic),消费者可不是谁生产的“鸡蛋”都吃的,这样不同的生产者生产出来的“鸡蛋”,消费者就可以选择性的“吃” 了。
©Broker:就是篮子了。
©Partition: Partition是物理上的概念,每个Topic包含一个或多个Partition o©Consumer Group :每个Consumer 属于一个特定的Consumer Group (可为每个Consumer指定group name,若不指定group name,则属于默认的group) 如果从技术角度,TOPiC标签实际就是队列,生产者把所有“鸡蛋(消息)” 都放到对应的队列里了,消费者到指定的队列里取。
5 .实训步骤(1)安装和配置Kafka①将kafka_2.13-3.3.1 .tgz压缩包上传至master节点的/root/PaCkage目录下。
②解压kafka_2.13-3.3.Ltgz,这里解压在/root/PaCkage 目录下:Cd ∕root∕packagetar -zxvf kafka_2.13-3.3. Ltgz -C ∕opt∕software∕(2)配置KafkaZooKeeper zookeeper.connect=localhost:2181 localhost,修改为安装ZoOKeePer 的三台节点,即master、slavel> slave2,主机刍里6-31ZooKeeper图6-32修改ZoOKeePer日志路径(3)复制master 的Kafka 到SIaVe 1、slave2(4)slavel> slave2Kafka①配置SlaVel的配置文件(修改broker.id)slave2broker.id)新打开一个终端,登录SlaVe2并执行vim ∕opt∕software∕kafka2.13-3.3.1 ∕config∕server.propertiesbroker.id=2⑤拷贝master节点的环境变量到SlaVel和slave2SlaVel SlaVe2节点中执行以下命令,使配置生效:source ZetcZprofile(5)校验Kafka①启动Kafka需确保master、slavel> SlaVe2的ZOOKeePer已启动,如未启动则用下面指令启动(执行jps,有QUorUmPeerMain进程则表示已启动):Kafka6-33图6-33查看各节点上的进程6.实训总结本次实训注意要安装配置好ZooKeeper, Kafka的安装部署与ZooKeeper的安装部署大同小异,启动的时候记得要汆启动ZOoKeeper,对于Kafka的原理要认真理解。
基于Hadoop的大数据处理平台搭建与部署

基于Hadoop的大数据处理平台搭建与部署一、引言随着互联网和信息技术的快速发展,大数据已经成为当今社会中不可或缺的重要资源。
大数据处理平台的搭建与部署对于企业和组织来说至关重要,而Hadoop作为目前最流行的大数据处理框架之一,其搭建与部署显得尤为重要。
本文将介绍基于Hadoop的大数据处理平台搭建与部署的相关内容。
二、Hadoop简介Hadoop是一个开源的分布式存储和计算框架,能够高效地处理大规模数据。
它由Apache基金会开发,提供了一个可靠、可扩展的分布式系统基础架构,使用户能够在集群中使用简单的编程模型进行计算。
三、大数据处理平台搭建准备工作在搭建基于Hadoop的大数据处理平台之前,需要进行一些准备工作: 1. 硬件准备:选择合适的服务器硬件,包括计算节点、存储节点等。
2. 操作系统选择:通常选择Linux系统作为Hadoop集群的操作系统。
3. Java环境配置:Hadoop是基于Java开发的,需要安装和配置Java环境。
4. 网络配置:确保集群内各节点之间可以相互通信。
四、Hadoop集群搭建步骤1. 下载Hadoop从Apache官网下载最新版本的Hadoop压缩包,并解压到指定目录。
2. 配置Hadoop环境变量设置Hadoop的环境变量,包括JAVA_HOME、HADOOP_HOME等。
3. 配置Hadoop集群编辑Hadoop配置文件,包括core-site.xml、hdfs-site.xml、mapred-site.xml等,配置各个节点的角色和参数。
4. 启动Hadoop集群通过启动脚本启动Hadoop集群,可以使用start-all.sh脚本启动所有节点。
五、大数据处理平台部署1. 数据采集与清洗在搭建好Hadoop集群后,首先需要进行数据采集与清洗工作。
通过Flume等工具实现数据从不同来源的采集,并进行清洗和预处理。
2. 数据存储与管理Hadoop提供了分布式文件系统HDFS用于存储海量数据,同时可以使用HBase等数据库管理工具对数据进行管理。
组建hadoop集群实验报告

组建hadoop集群实验报告一、实验目的本次实验的目的是通过组建Hadoop 集群,熟悉和掌握Hadoop 的部署过程和相关技术,加深对分布式计算的理解并掌握其应用。
二、实验环境- 操作系统:Ubuntu 20.04- Hadoop 版本:3.3.0- Java 版本:OpenJDK 11.0.11三、实验步骤1. 下载和安装Hadoop在官方网站下载Hadoop 的二进制文件,并解压到本地的文件夹中。
然后进行一些配置,如设置环境变量等,以确保Hadoop 可以正常运行。
2. 配置Hadoop 集群a) 修改核心配置文件在Hadoop 的配置目录中找到`core-site.xml` 文件,在其中添加以下配置:xml<configuration><property><name>fs.defaultFS</name><value>hdfs:localhost:9000</value></property></configuration>b) 修改HDFS 配置文件在配置目录中找到`hdfs-site.xml` 文件,在其中添加以下配置:xml<configuration><property><name>dfs.replication</name><value>1</value></property></configuration>c) 修改YARN 配置文件在配置目录中找到`yarn-site.xml` 文件,在其中添加以下配置:xml<configuration><property><name>yarn.resourcemanager.hostname</name><value>localhost</value></property><property><name>yarn.nodemanager.aux-services</name><value>mapreduce_shuffle</value></property><property><name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</nam e><value>org.apache.hadoop.mapred.ShuffleHandler</value></property></configuration>3. 启动Hadoop 集群在终端中执行以下命令来启动Hadoop 集群:bashstart-all.sh这将启动Hadoop 中的所有守护进程,包括NameNode、DataNode、ResourceManager 和NodeManager。
hadoop实例运行

• 上传文本内容到HDFS 下inputdata目录 内
• hadoop fs -mkdir inputdata创建新目录 • hadoop fs -put ./data.txt inputda个块存为3个副本。分别为以下
• 执行WordCount程序
hadoop实例演示
2015.3.31
目录
实验一:对20 News Groups Dataset 文本分类数据集做WordCount处理及 分析
实验1.1:对20 News Groups Dataset 文本分类数据集做
WordCount处理(多文件上传处理)
• 数据集格式内容:数据集含有19124个文本文件,每个文件大小仅有几kb。
HDFS上传时间相对漫长 HDFS上传切分成64MB为一个block,浪费大量内存空间 mapreduce处理时间在1个小时以上
实验1.2:对20 News Groups Dataset 文本分类数据集做WordCount处理
(通过软件或者程序实现文本内容进行处理合并成一个大文件)
• 数据集格式内容:为上例中一万多个文档合并成一 个文本文档,数据集不变,数据集为74MB左右
Hadoop在处理多文件并且每个文件很小时, 文件只有几MB或者几KB时,执行效率将会相 当的低下。也会浪费大量的HDFS存储量。这 就是hadoop所具有的局限性。
Hadoop可以实现一个高吞吐量的数据的执行, 可以高效的执行
• 文本内容格式:
• 上传HDFS:
在我们上传到HDFS,被分成了一个个的块内容(64MB),浪费了大量的内存
• 执行WordCount程序
从右图中我 们可以看到, 执行时间相 当缓慢。 原因:大部 分的时间不 是用在了计 算数据上, 而是在寻址 上。
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
Hadoop大数据技术实验资料airyqinHadoop大数据管理与分析处理平台部署实验手册CentOS 6集群下部署Hadoop(Airy qin)Hadoop大数据实验实战资料(请勿在互联网上传播)启动两台虚拟客户机:打开VMware Workstation10打开之前已经安装好的虚拟机:HadoopMaster和HadoopSlave出现异常,选择“否”进入Hadoop大数据实验实战资料(请勿在互联网上传播)如果之前没有打开过两个虚拟机,请使用“文件”->“打开”选项,选择之前的虚拟机安装包(在一体软件包里面的)第1步 Linux系统配置以下操作步骤需要在HadoopMaster和HadoopSlave节点上分别完整操作,都使用root用户,从当前用户切换root用户的命令如下:su root输入密码:zkpkHadoop大数据实验实战资料(请勿在互联网上传播)本节所有的命令操作都在终端环境,打开终端的过程如下图的Terminal菜单:终端打开后如下图中命令行窗口所示。
1.拷贝软件包和数据包将完整软件包“H adoop In Action Experiment”下的software包和sogou-data整体拖拽到HadoopMaster 节点的桌面上,并且在终端中执行下面的移动文件命令:mv ~/Desktop/software ~/Hadoop大数据实验实战资料(请勿在互联网上传播)mv ~/Desktop/sogou-data ~/1.1配置时钟同步1.1.1 配置自动时钟同步使用Linux命令配置crontab -e键入下面的一行代码:输入i,进入插入模式0 1 * * * /usr/sbin/ntpdate 1.1.2 手动同步时间/usr/sbin/ntpdate 1.2配置主机名1.2.1 HadoopMaster节点使用gedit 编辑主机名gedit /etc/sysconfig/network配置信息如下,如果已经存在则不修改,将HadoopMaster节点的主机名改为master,即下面代码的第3行所示。
NETWORKING=yes #启动网络NETWORKING_IPV6=noHOSTNAME=master #主机名确实修改生效命令:hostname master检测主机名是否修改成功命令如下,在操作之前需要关闭当前终端,重新打开一个终端:hostname执行完命令,会看到下图的打印输入:Hadoop 大数据实验实战资料(请勿在互联网上传播)1.2.2 HadoopSlave 节点使用gedit 编辑主机名配置信息如下,如果已经存在则不修改,将Hadoopslave 节点的主机名改为slave ,即下面代码的第3行所示。
确实修改生效命令:检测主机名是否修改成功命令如下,在操作之前需要关闭当前终端,重新打开一个终端:执行完命令,会看到下图的打印输入:1.3 使用setup 命令配置网络环境在终端中执行下面的命令:如果看到下面的打印输出gedit /etc/sysconfig/networkNETWORKING=yes #启动网络 NETWORKING_IPV6=no HOSTNAME=slave #主机名 hostname slave hostnameifconfigHadoop大数据实验实战资料(请勿在互联网上传播)如果看到出现红线标注部分出现,即存在内网IP、广播地址、子网掩码,说明该节点不需要配置网络,否则进行下面的步骤。
在终端中执行下面命令:setup会出现下图中的内容:使用光标键移动选择“Network configuration”,回车进入该项Hadoop 大数据实验实战资料(请勿在互联网上传播)使用光标键移动选择eth0,回车进入该项按照图中的方式输入各项内容重启网络服务检查是否修改成功:看到如下图的内容(IP 不一定和下图相同,根据你之前的配置),说明配置成功,特别关注红线部分/sbin/service network restart ifconfigHadoop大数据实验实战资料(请勿在互联网上传播)1.4关闭防火墙在终端中执行下面命令:setup会出现下图中的内容:光标移动选择“Firewall configuration”选项,回车进入选项如果该项前面有“*”标,则按一下空格键关闭防火墙,如下图所示,然后光标移动选择“OK”保存修改内容Hadoop大数据实验实战资料(请勿在互联网上传播)OK选择编辑主机名列表的命令:gedit /etc/hosts将下面两行添加到/etc/hosts文件中192.168.1.100 master192.168.1.101 slave注意:这里master节点对应IP地址是192.168.1.100,slave对应的IP是192.168.1.101,而自己在做配置时,需要将这两个IP地址改为你的master和slave对应的IP地址。
查看master的IP地址使用下面的命令:ifconfigmaster节点的IP是下图中红线标注的内容。
slave的IP地址也是这样查看。
验证是否配置成功的命令是:ping masterping slave如果出现下图的信息表示配置成功:如果出现下图的内容,表示配置失败:1.6 安装JDK将JDK 文件解压,放到/home/zkpk 目录下使用gedit 配置环境变量复制粘贴以下内容添加到到上面gedit 打开的文件中: 使改动生效命令:测试配置:如果出现下图的信息,表示JDK 安装成功:cd /home/zkpk/software/jdk mkdir /home/zkpkmv jdk1.6.0_45.zip /home/zkpk/ cd /home/zkpkunzip jdk1.6.0_45.zip gedit /home/zkpk/.bash_profile export JAVA_HOME=/home/zkpk/jdk1.6.0_45/ export PATH=$JAVA_HOME/bin:$PATH source .bash_profile java -version1.7免密钥登录配置该部分所有的操作都要在zkpk用户下,切换回zkpk的命令是:su zkpk密码是:zkpk1.7.1 HadoopMaster节点在终端生成密钥,命令如下(一路点击回车生成密钥)ssh-keygen -t rsa生成的密钥在.ssh目录下如下图所示:复制公钥文件cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys 执行ls -l命令后会看到下图的文件列表:修改authorized_keys文件的权限,命令如下:chmod 600 authorized_keys修改完权限后,文件列表情况如下:将authorized_keys 文件复制到slave 节点,命令如下:如果提示输入yes/no 的时候,输入yes ,回车 密码是:zkpk1.7.2 HadoopSlave 节点在终端生成密钥,命令如下(一路点击回车生成密钥)将authorized_keys 文件移动到.ssh 目录修改authorized_keys 文件的权限,命令如下:1.7.3 验证免密钥登陆在HadoopMaster 机器上执行下面的命令:如果出现下图的内容表示免密钥配置成功:scp authorized_keys zkpk@slave:~/ ssh-keygen -t rsa mv authorized_keys ~/.ssh/ cd ~/.sshchmod 600 authorized_keys ssh slave第2步 Hadoop配置部署每个节点上的Hadoop配置完全相同,可以每个节点都操作一遍,或者一个操作完成复制到另一个节点。
下面所有的操作都使用zkpk用户,切换zkpk用户的命令是:su zkpk密码是:zkpk将软件包中的Hadoop生态系统包复制到相应zkpk用户的主目录下(直接拖拽方式即可拷贝)2.1Hadoop安装包解压进入Hadoop软件包,命令如下:cd /home/zkpk/software/hadoop/apache复制并解压Hadoop安装包命令如下:cp hadoop-1.2.1.tar.gz ~/cdtar -zxvf hadoop-1.2.1.tar.gzcd hadoop-1.2.1ls -l看到如下图的内容,表示解压成功:2.2 配置环境变量hadoop-env.sh环境变量文件中,只需要配置JDK 的路径。
在文件的靠前的部分找到下面的一行代码:将这行代码修改为:然后保存文件。
2.3 配置核心组件core-site.xml使用gedit 编辑:gedit conf/hadoop-env.sh # export JAVA_HOME=/usr/lib/j2sdk1.5-sun export JAVA_HOME=/home/zkpk/jdk1.6.0_45 gedit conf/core-site.xml用下面的代码替换conf/core-site.xml中的内容<?xml version="1.0"?><?xml-stylesheet type="text/xsl" href="configuration.xsl"?><!-- Put site-specific property overrides in this file. --><configuration><property><name></name><value>hdfs://master:9000</value></property><property><name>hadoop.tmp.dir</name><value>/home/zkpk/hadoopdata</value></property></configuration>2.4配置文件系统hdfs-site.xml使用gedit编辑:gedit conf/hdfs-site.xml用下面的代码替换conf/hdfs-site.xml中的内容:<?xml version="1.0"?><?xml-stylesheet type="text/xsl" href="configuration.xsl"?> <!-- Put site-specific property overrides in this file. --><configuration><property><name>dfs.replication</name><value>1</value></property></configuration>2.5 配置计算框架mapred-site.xml使用gedit 编辑:用下面的代码替换conf/mapred-site.xml 中的内容<?xml version="1.0"?><?xml-stylesheet type="text/xsl" href="configuration.xsl"?><!-- Put site-specific property overrides in this file. --><configuration> <property><name>mapred.job.tracker</name> <value>master:9001</value> </property> </configuration>2.6 配置主节点masters使用gedit 编辑:用下面的代码替换conf/masters 中的内容: master2.7 配置从节点slaves使用gedit 编辑:gedit conf/mapred-site.xmlgedit conf/masters gedit conf/slaves用下面的代码替换conf/slaves中的内容:slave2.8复制到从节点使用下面的命令将已经配置完成的Hadoop复制到从节点HadoopSlave上:cdscp -r hadoop-1.2.1 slave:~/注意:因为之前已经配置了免密钥登录,这里可以直接远程复制。