hadoop平台搭建-入门详细教程(含视频)

合集下载

hadoop3.2环境搭建分步骤说明

hadoop3.2环境搭建分步骤说明
hadoop7-安装配置 java
这里要注意 jdk 版本问题,是否支持 hadoop 组件 还有就是配置 JAVA_HOME 这个变量非常重要,因为在 hadoop 启动 的时候,有很多.sh 的脚本需要配置 JAVA_HOME 的绝对路径,这里需 要配置很清楚,到底安装在哪里。 yum install java(yum 不好用就重新安装 yum) 配置环境变量 默认 jre jdk 安装路径是/usr/lib/jvm 下面
最后多节点启动成功这样子
使用环境 WMware 虚拟机(版本没有太多区别) Centos7(不同版本 systemctl 命令有不同) Java1.8(直接 yum 安装的) Hadoop-3.2.0(官网下载) 前几个步骤虚拟机建立,网上带图的配置说明很多,我就不在发 图了,比较简单。需要时刻记住最终搭建是三节点,所以系统配置的 时候 3 台机器都要配置好(如果熟悉可以 1 台复制 3 台改),我的 3 台机器都是 root 用户。
Hadoop3.2 环境搭建(详细步骤)
唾沫星冲锋枪 曾经 2009 年的时候跟着 Yahoo 的展会初识了 hadoop,因为一直 在金融领域 IT 混,也没有真正实践机会,这方面通信、互联网领域 还是比较快。最近因为工作中用的了 hdfs 等相关的东西,所以自己 尝试搭建 hadoop 环境。细致记录搭建过程的每个环节和坑(包含了很 详细的虚拟机配置和 linux 配置,hdfs 单节点或 hadoop 多节点配置) 分享一下,我自己踩坑的配置也都高亮标记黄色。 首先是展示目录(操作时每个步骤都是单独记录的)
hadoop5-linux 关闭防火墙
centos7 命令 停防火墙 service firewalld stop 永久关闭 systemctl disable firewalld 恢复防火墙 systemctl enable firewalld

Hadoop完全分布式详细安装过程

Hadoop完全分布式详细安装过程

Hadoop详细安装过程一、本文思路1、安装虚拟化PC工具VMware,用于支撑Linux系统。

2、在VMware上安装Ubuntu系统。

3、安装Hadoop前的准备工作:安装JDK和SSH服务。

4、配置Hadoop。

5、为了方便开发过程,需安装eclipse。

6、运行一个简单的Hadoop程序:WordCount.java注:在win7系统上,利用虚拟工具VMware建立若干个Linux系统,每个系统为一个节点,构建Hadoop集群。

先在一个虚拟机上将所有需要配置的东西全部完成,然后再利用VMware 的克隆功能,直接生成其他虚拟机,这样做的目的是简单。

二、所需软件1、VMware:VMware Workstation,直接百度下载(在百度软件中心下载即可)。

2、Ubuntu系统:ubuntu-15.04-desktop-amd64.iso,百度网盘:/s/1qWxfxso注:使用15.04版本的Ubuntu(其他版本也可以),是64位系统。

3、jdk:jdk-8u60-linux-x64.tar.gz,网址:/technetwork/java/javase/downloads/jdk8-downloads-2133151.html注:下载64位的Linux版本的jdk。

4、Hadoop:hadoop-1.2.1-bin.tar.gz,网址:/apache/hadoop/common/hadoop-1.2.1/注:选择1.2.1版本的Hadoop。

5、eclipse:eclipse-java-mars-1-linux-gtk-x86_64.tar.gz,网址:/downloads/?osType=linux注:要选择Linux版本的,64位,如下:6、hadoop-eclipse-plugin-1.2.1.jar,这是eclipse的一个插件,用于Hadoop的开发,直接百度下载即可。

三、安装过程1、安装VMware。

《hadoop基础》课件——第三章 Hadoop集群的搭建及配置

《hadoop基础》课件——第三章 Hadoop集群的搭建及配置

19
Hadoop集群—文件监控
http://master:50070
20
Hadoop集群—文件监控
http://master:50070
21
Hadoop集群—文件监控
http://master:50070
22
Hadoop集群—任务监控
http://master:8088
23
Hadoop集群—日志监控
http://master:19888
24
Hadoop集群—问题 1.集群节点相关服务没有启动?
1. 检查对应机器防火墙状态; 2. 检查对应机器的时间是否与主节点同步;
25
Hadoop集群—问题
2.集群状态不一致,clusterID不一致? 1. 删除/data.dir配置的目录; 2. 重新执行hadoop格式化;
准备工作:
1.Linux操作系统搭建完好。 2.PC机、服务器、环境正常。 3.搭建Hadoop需要的软件包(hadoop-2.7.6、jdk1.8.0_171)。 4.搭建三台虚拟机。(master、node1、node2)
存储采用分布式文件系统 HDFS,而且,HDFS的名称 节点和数据节点位于不同机 器上。
2、vim编辑core-site.xml,修改以下配置: <property>
<name>fs.defaultFS</name> <value>hdfs://master:9000</value> </property> <property> <name>hadoop.tmp.dir</name> <value>/opt/soft/hadoop-2.7.6/tmp</value> </property> <property> <name>fs.trash.interval</name> <value>1440</value> </property>

Hadoop集群的搭建方法与步骤

Hadoop集群的搭建方法与步骤

Hadoop集群的搭建方法与步骤随着大数据时代的到来,Hadoop作为一种分布式计算框架,被广泛应用于数据处理和分析领域。

搭建一个高效稳定的Hadoop集群对于数据科学家和工程师来说至关重要。

本文将介绍Hadoop集群的搭建方法与步骤。

一、硬件准备在搭建Hadoop集群之前,首先要准备好适合的硬件设备。

Hadoop集群通常需要至少三台服务器,一台用于NameNode,两台用于DataNode。

每台服务器的配置应该具备足够的内存和存储空间,以及稳定的网络连接。

二、操作系统安装在选择操作系统时,通常推荐使用Linux发行版,如Ubuntu、CentOS等。

这些操作系统具有良好的稳定性和兼容性,并且有大量的Hadoop安装和配置文档可供参考。

安装操作系统后,确保所有服务器上的软件包都是最新的。

三、Java环境配置Hadoop是基于Java开发的,因此在搭建Hadoop集群之前,需要在所有服务器上配置Java环境。

下载最新版本的Java Development Kit(JDK),并按照官方文档的指引进行安装和配置。

确保JAVA_HOME环境变量已正确设置,并且可以在所有服务器上运行Java命令。

四、Hadoop安装与配置1. 下载Hadoop从Hadoop官方网站上下载最新的稳定版本,并将其解压到一个合适的目录下,例如/opt/hadoop。

2. 编辑配置文件进入Hadoop的安装目录,编辑conf目录下的hadoop-env.sh文件,设置JAVA_HOME环境变量为Java的安装路径。

然后,编辑core-site.xml文件,配置Hadoop的核心参数,如文件系统的默认URI和临时目录。

接下来,编辑hdfs-site.xml文件,配置Hadoop分布式文件系统(HDFS)的相关参数,如副本数量和数据块大小。

最后,编辑mapred-site.xml文件,配置MapReduce框架的相关参数,如任务调度器和本地任务运行模式。

Hadoop平台搭建与应用(第2版)(微课版)项目1 认识大数据

Hadoop平台搭建与应用(第2版)(微课版)项目1 认识大数据

Hadoop平台搭建与应用教案靠、高性能、分布式和面向列的动态模式数据库。

⑤ ZooKeeper(分布式协作服务):其用于解决分布式环境下的数据管理问题,主要是统一命名、同步状态、管理集群、同步配置等。

⑥ Sqoop(数据同步工具):Sqoop是SQL-to-Hadoop的缩写,主要用于在传统数据库和Hadoop之间传输数据。

⑦ Pig(基于Hadoop的数据流系统):Pig的设计动机是提供一种基于MapReduce 的Ad-Hoc(计算在query时发生)数据分析工具。

⑧ Flume(日志收集工具):Flume是Cloudera开源的日志收集系统,具有分布式、高可靠、高容错、易于定制和扩展的特点。

⑨ Oozie(作业流调度系统):Oozie是一个基于工作流引擎的服务器,可以运行Hadoop的MapReduce和Pig任务。

⑩ Spark(大数据处理通用引擎):Spark提供了分布式的内存抽象,其最大的特点就是快,是Hadoop MapReduce处理速度的100倍。

YARN(另一种资源协调者):YARN是一种新的Hadoop资源管理器,它是一个通用资源管理系统,可为上层应用提供统一的资源管理和调度,它的引入为集群在利用率、资源统一管理和数据共享等方面带来了巨大好处。

Kafka(高吞吐量的分布式发布订阅消息系统):Kafka可以处理消费者规模的网站中的所有动作流数据。

任务1.1 认知大数据,完成系统环境搭建(1)安装CentOS系统(确保CentOS系统版本在7及以上,以便配合后续Docker 安装)。

①在VMware中设置CentOS 7镜像,进入后选择第一项安装CentOS 7,如图1-8所示。

②在新打开页面中设置时间(DATE&TIME),分配磁盘(INSTALLATION DESTINATION)和网络设置(NETWORK&HOST NAME)等,如图1-9所示。

③单击“INSTALLATION DESTINATION”链接,在打开的界面中选择“I will configure partitioning”选项,然后单击“Done”按钮,跳转到分配磁盘页面即可进行磁盘分配,如图1-10所示。

hadoop入门教程

hadoop入门教程

ubuntu 下安装配置hadoop 1.0.4第一次搞hadoop,折腾我2天,功夫不负有心人,终于搞好了,现在来分享下,我的环境操作系统:wmv虚拟机中的ubuntu12.04hadoop版本:hadoop-1.0.4(听说是稳定版就下了)eclipse版本:eclipse-jee-indigo-SR2-win321.先安装好jdk,然后配置好jdk的环境变量,在这里我就不累赘了!网上多的是2.安装ssh这个也不用说了2.把hadoop-1.0.4.tar.gz拖到虚拟机中,解压,比如: /home/wys/Documents/hadoop-1.0.4/ (有的还单独建了个用户,为了舍去不必要的麻烦我都是用root用户来操作的)3.修改hadoop-1.0.4/conf 下面的core-site.xml文件,如下:<configuration><property><name></name><value>hdfs://192.168.116.128:9000</value></property><property><name>hadoop.tmp.dir</name><value>/home/wys/Documents/tmp</value></property></configuration>192.168.116.128这个是虚拟机中ubuntu的ip,听说用localhost,127.0.0.1都不行,我没试过,直接写上ip地址了tmp是预先创建的一个目录4.修改hadoop-env.sh把export JAVA_HOME=xxxxxx 这行的#号去掉,写上jdk的目录路径5.修改hdfs-site.xml如下:<configuration><property><name>dfs.replication</name><value>1</value></property><property><name>dfs.permissions</name><value>false</value></property></configuration>说明:为了以后用eclipse开发出现各种问题,就把权限关了!6.修改mapred-site.xml<configuration><property><name>mapred.job.tracker</name><value>192.168.116.128:9001</value></property></configuration>这里我也用了本机ip7.启动hadoop为了方便启动,我就把hadoop配置到了环境变量(配置完记得重启):export HADOOP_HOME=/home/wys/Documents/hadoop-1.0.4export JAVA_HOME=/home/wys/Documents/jdk1.6.0_24export JRE_HOME=$JAVA_HOME/jreexport PATH=$PATH:$HADOOP_HOME/bin把这个复制到/etc/profile 文件中HADOOP_HOME JAVA_HOME根据实际情况而定!重启之后格式化分布式文件系统:hadoop namenode -format接着启动hadoop:start-all.sh成功后会看到一下信息:starting namenode, logging to /home/wys/Documents/hadoop-1.0.4/libexec/../logs/hadoop-root-namenode-ubuntu.outlocalhost: starting datanode, logging to /home/wys/Documents/hadoop-1.0.4/libexec/../logs/hadoop-root-datanode-ubu ntu.outlocalhost: starting secondarynamenode, logging to /home/wys/Documents/hadoop-1.0.4/libexec/../logs/hadoop-root-secondarynam enode-ubuntu.outstarting jobtracker, logging to /home/wys/Documents/hadoop-1.0.4/libexec/../logs/hadoop-root-jobtracker-ubu ntu.outlocalhost: starting tasktracker, logging to /home/wys/Documents/hadoop-1.0.4/libexec/../logs/hadoop-root-tasktracker-ub untu.out现在就可以在浏览器中输入地址:http://192.168.116.128:50030http://192.168.116.128:50070均可以查看到一些信息假如这个http://192.168.116.128:50070地址无法访问是因为hadoop.tmp.dir 这个没指定文件夹至此hadoop已安装配置完成!Eclipse 连接hadoop开发程序入门前面一遍博文介绍了如何安装配置hadoop地址:/wqs1010/article/details/8486040这里就来介绍一下用eclipse如何连接hadoop开发由于我用的是虚拟机中的系统来做测试,多少有点不正确,还请谅解!1.首先要下载eclipse hadoop插件我用的是hadoop 1.0.4的版本,这里有个已经做好了的版本下载地址:hadoop-eclipse-plugin-1.0.4.jar下载下来直接把jar文件放到eclipse/plugins/文件夹中,然后重启eclipse2.之后会到看到如下图:然后设置下右边的hadoop根目录没有的话说明插件没安装成功!3.切换到Map/Reduce视图:下面有个黄色的大象:4.右击新建一个hadoop地址把红框的都填下:Location name : 这个随便写个Map/Reduce host port: 这2个是要根据conf/mapred-site.xml这个来定的DFS Master port:这个是对应你conf/core-site.xml这个文件中这个属性的值右边的Advanced parameters就不用改了!完成后再看工程视图:一步一步展开DFS Locations当出现ConnectException异常时,只要检查下你写的地址跟端口是否跟hadoop配置文件中一样即可!5.连接成功之后类似这个样子:6.新建一个MapReduce Project把\hadoop-1.0.4\src\examples\org\apache\hadoop\examples\WordCount.java复制到你的工程7.在eclipse里,创建远程目录命名为wordCount,建完之后刷新就可以看到了8.然后从本地上传一个word.txt文件word.txt内容:java c++ python cjava c++ javascripthelloworld hadoopmapreduce java hadoop hbase当出现node.SafeModeException: 异常,这时就要把hadoop安全模式关闭, 命令:hadoop dfsadmin –safemode leave9.上传之后run as WordCount.java 记得带上参数,用空格隔开这个时候会出现Exception in thread "main" java.io.IOException: Failed to set permissions of path: \tmp\hadoop-wys\mapred\staging\wys1479426331\.stagingto 0700 异常,是因为没有权限,网上说替换hadoop-core-xx.jar包中的org.apache.hadoop.fs.FileUtil.class文件,除此之外我还没找到其他的方法了!文件地址:FileUtil10.替换之后刷新工程,再次执行WordCount.java文件当控制台打印下面这些说明已经执行成功!再看DFS Locations下面会多出来一个文件夹和2个文件,打开part-r-00000文件这个就是你想要的:恭喜你,此时大功告成!。

Hadoop大数据平台安装实验(详细步骤)(虚拟机linux)

Hadoop大数据平台安装实验(详细步骤)(虚拟机linux)

大数据技术实验报告大数据技术实验一Hadoop大数据平台安装实验1实验目的在大数据时代,存在很多开源的分布式数据采集、计算、存储技术,本实验将在熟练掌握几种常见Linux命令的基础上搭建Hadoop(HDFS、MapReduce、HBase、Hive)、Spark、Scala、Storm、Kafka、JDK、MySQL、ZooKeeper等的大数据采集、处理分析技术环境。

2实验环境个人笔记本电脑Win10、Oracle VM VirtualBox 5.2.44、CentOS-7-x86_64-Minimal-1511.iso3实验步骤首先安装虚拟机管理程序,然后创建三台虚拟服务器,最后在虚拟服务器上搭建以Hadoop 集群为核心的大数据平台。

3.1快速热身,熟悉并操作下列Linux命令·创建一个初始文件夹,以自己的姓名(英文)命名;进入该文件夹,在这个文件夹下创建一个文件,命名为Hadoop.txt。

·查看这个文件夹下的文件列表。

·在Hadoop.txt中写入“Hello Hadoop!”,并保存·在该文件夹中创建子文件夹”Sub”,随后将Hadoop.txt文件移动到子文件夹中。

·递归的删除整个初始文件夹。

3.2安装虚拟机并做一些准备工作3.2.1安装虚拟机下载系统镜像,CentOS-7-x86_64-Minimal-1511.iso。

虚拟机软件使用Oracle VM VirtualBox 5.2.44。

3.2.2准备工作关闭防火墙和Selinux,其次要安装perl 、libaio、ntpdate 和screen。

然后检查网卡是否开机自启,之后修改hosts,检查网络是否正常如图:然后要创建hadoop用户,之后多次用,并且生成ssh 密钥并分发。

最后安装NTP 服务。

3.3安装MYSQL 3.3.1安装3.3.2测试3.4安装ZooKeeper。

搭建hadoop的方法

搭建hadoop的方法

搭建hadoop的方法1、准备硬件环境:需要至少两台服务器作为节点,配备一定的内存及硬盘空间,用以存放hadoop映射节点和数据。

2、安装JDK:因Hadoop是一个java環境开发的框架,所以安装Hadoop之前第一步必须要安装java环境才能继续执行后续步骤,安装JDK时要根据自己的操作系统的位数进行安装,如果是64位的操作系统,就只能安装64位的java,32位的操作系统也只能安装32位的java,到官网上下载安装就可以了。

3、配置Hadoop:在安装好java之后,需要进行Hadoop的配置,主要就是根据自身的需求修改Hadoop的配置文件。

修改配置文件之前,先根据自身需求构建hadoop环境,安装好Hadoop,然后找到配置文件进行修改,Hadoop 的配置文件包括hadoop目录、java、hdfs、nodes等,根据自己的需求修改、添加信息,例如要配置分布式计算,需要在配置文件中添加slave节点的相关信息。

4、建立SSH连接:在Hadoop的分布式环境中,需要建立ssh的连接,这是一种形式的ip通信,安装完hadoop之后,在配置文件中设置hadoop的主机,以及hdfs的从节点,最后在终端窗口下输入命令ssh-keygen,这样就可以完成hadoop服务主机和从机之间的ssh连接了。

5、安装hadoop Config:设定好hadoop需要的配置文件之后,开始配置hadoop,操作步骤是:先进入hadoop安装目录,运行bin/hadoop-env.sh 文件,然后运行sbin/start-all.sh等命令,运行完之后,就可以启动hadoop 的环境和hadoop的服务,只要hadoop的安装和配置文件都正确操作,hadoop的服务就可以启动成功。

6、安装hadoop工具:安装Hadoop之后,如果要使用它就必须安装一些Hadoop的工具,比如日志查看器,Hadoop管理员等等,可以从Hadoop官网上获取相应的资源下载,或者安装常用的hadoop开发工具。

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

Hadoop平台搭建说明1.Hadoop节点规划本次安装规划使用三个节点,每个节点都使用centos系统。

三个节点的hostname分别规划为:centoshadoop1、centoshadoop2、centoshadoop3(此处为本教程参数,可根据实际环境情况修改)三个节点的ip地址分别规划为:192.168.65.57、192.168.65.58、192.168.65.59(此处为本教程参数,根据实际环境情况修改)2.平台搭建使用的软件下载如下软件操作系统安装包:Centos6.3_x64Jdk安装包:jdk-6u37-linux-x64.binHadoop安装包:hadoop-1.1.2.tar.gz3.安装centos操作系统安装三个节点的操作系统,安装过程省略。

4.配置centoshadoop1节点4.1.修改节点hostname[root@localhost~]#vi/etc/sysconfig/networkHOSTNAME=centoshadoop1[root@localhost~]#vi/etc/hosts……192.168.65.57 centoshadoop1192.168.65.58 centoshadoop2192.168.65.59 centoshadoop3[root@localhost~]#reboot4.2.关闭iptables防火墙[root@ centoshadoop1~]#service iptables stop注意每次操作系统重启后都要操作4.3.建立无ssh密码登陆生成签名文件[root@ centoshadoop1~]#cd /root[root@ centoshadoop1~]#ssh-keygen -t dsa -P '' -f ~/.ssh/id_dsa[root@ centoshadoop1~]#cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys [root@ centoshadoop1~]#测试本地SSH无密码登录[root@ centoshadoop1~]#ssh centoshadoop14.4.安装jdk上传jdk-6u37-linux-x64.bin到/root目录下[root@ centoshadoop1~]#chmod 777 jdk-6u37-linux-x64.bin[root@ centoshadoop1~]#./jdk-6u37-linux-x64.bin[root@ centoshadoop1~]#ll查看生成jdk-6u37-linux-x64目录4.5.安装hadoop软件上传hadoop-1.1.2.tar.gz到/root目录下[root@ centoshadoop1~]#tar -zvxf hadoop-1.1.2.tar.gz[root@ centoshadoop1~]#ll查看生成hadoop-1.1.2目录[root@ centoshadoop1~]#vi /conf/core-site.xml<?xml version="1.0"?><?xml-stylesheet type="text/xsl" href="configuration.xsl"?><!-- Put site-specific property overrides in this file. --><configuration><property><name></name><value>hdfs://192.168.65.57:9000</value></property><property><name>hadoop.tmp.dir</name><value>/root/hadoop-1.1.2/tmp</value></property></configuration>[root@ centoshadoop1~]#vi hdfs-site.xml<?xml version="1.0"?><?xml-stylesheet type="text/xsl" href="configuration.xsl"?> <!-- Put site-specific property overrides in this file. --><configuration><property><name>dfs.replication</name><value>1</value></property></configuration>[root@ centoshadoop1~]#vi mapred-site.xml<?xml version="1.0"?><?xml-stylesheet type="text/xsl" href="configuration.xsl"?> <!-- Put site-specific property overrides in this file. --><configuration><property><name>mapred.job.tracker</name><value>192.168.65.57:9001</value></property></configuration>4.6.配置hadoop数据节点[root@ centoshadoop1~]#vi /root/hadoop-1.1.2/conf/masters 192.168.65.57 #secondaryNameNode[root@ centoshadoop1~]#vi /root/hadoop-1.1.2/conf/slaves 192.168.65.58 #datanode192.168.65.59 #datanode4.7.添加环境变量[root@ centoshadoop1~]#cd /root[root@ centoshadoop1~]#vi /etc/profileexport JAVA_HOME=/root/jdk1.6.0_37export JRE_HOME=/root/jdk1.6.0_37/jreexport HADOOP_HOME=/root/hadoop-1.1.2export HADOOP_HOME_WARN_SUPPRESS=1export CLASSPATH=.:$JAVA_HOME/lib:$JRE_HOME/lib:$HADOOP_HOME/lib:$CLASSPATH export PATH=$JAVA_HOME/bin:$JRE_HOME/bin:$HADOOP_HOME/bin:$PATH[root@ centoshadoop1~]#vi ~/.bashrcexport JAVA_HOME=/root/jdk1.6.0_37export JRE_HOME=/root/jdk1.6.0_37/jreexport HADOOP_HOME=/root/hadoop-1.1.2export HADOOP_DEV_HOME=/root/hadoop-1.1.2export HADOOP_COMMON_HOME=/root/hadoop-1.1.2export HADOOP_HDFS_HOME=/root/hadoop-1.1.2export HADOOP_CONF_DIR=/root/hadoop-1.1.2/conf[root@ centoshadoop1~]#vi /root/hadoop-1.1.2/conf/hadoop-env.shexport JAVA_HOME=/root/jdk1.6.0_37export HADOOP_HOME_WARN_SUPPRESS=1export HADOOP_CLASSPATH=/root/hadoop-1.1.2:/root/hadoop-1.1.2/lib5.配置centoshadoop2节点5.1.修改节点hostname[root@localhost~]#vi/etc/sysconfig/networkHOSTNAME=centoshadoop2[root@localhost~]#vi/etc/hosts……192.168.65.57 centoshadoop1192.168.65.58 centoshadoop2192.168.65.59 centoshadoop3[root@localhost~]#reboot5.2.关闭iptables防火墙[root@ centoshadoop1~]#service iptables stop注意每次操作系统重启后都要操作5.3.建立无ssh密码登陆将centoshadoop1节点上/root/.ssh目录下的authorized_keys、known_hosts 、id_rsa.pub、id_rsa四个文件拷贝到本机的/root/.ssh目录下5.4.安装jdk上传jdk-6u37-linux-x64.bin到/root目录下[root@ centoshadoop1~]#chmod 777 jdk-6u37-linux-x64.bin[root@ centoshadoop1~]#./jdk-6u37-linux-x64.bin[root@ centoshadoop1~]#ll查看生成jdk-6u37-linux-x64目录5.5.安装hadoop软件上传hadoop-1.1.2.tar.gz到/root目录下[root@ centoshadoop1~]#tar -zvxf hadoop-1.1.2.tar.gz[root@ centoshadoop1~]#ll查看生成hadoop-1.1.2目录[root@ centoshadoop1~]#vi /conf/core-site.xml<?xml version="1.0"?><?xml-stylesheet type="text/xsl" href="configuration.xsl"?><!-- Put site-specific property overrides in this file. --><configuration><property><name></name><value>hdfs://192.168.65.57:9000</value></property><property><name>hadoop.tmp.dir</name><value>/root/hadoop-1.1.2/tmp</value></property></configuration>[root@ centoshadoop1~]#vi hdfs-site.xml<?xml version="1.0"?><?xml-stylesheet type="text/xsl" href="configuration.xsl"?><!-- Put site-specific property overrides in this file. --><configuration><property><name>dfs.replication</name><value>1</value></property></configuration>[root@ centoshadoop1~]#vi mapred-site.xml<?xml version="1.0"?><?xml-stylesheet type="text/xsl" href="configuration.xsl"?><!-- Put site-specific property overrides in this file. --><configuration><property><name>mapred.job.tracker</name><value>192.168.65.57:9001</value></property></configuration>5.6.添加环境变量[root@ centoshadoop1~]#cd /root[root@ centoshadoop1~]#vi /etc/profileexport JAVA_HOME=/root/jdk1.6.0_37export JRE_HOME=/root/jdk1.6.0_37/jreexport HADOOP_HOME=/root/hadoop-1.1.2export HADOOP_HOME_WARN_SUPPRESS=1export CLASSPATH=.:$JAVA_HOME/lib:$JRE_HOME/lib:$HADOOP_HOME/lib:$CLASSPATH export PATH=$JAVA_HOME/bin:$JRE_HOME/bin:$HADOOP_HOME/bin:$PATH[root@ centoshadoop1~]#vi ~/.bashrcexport JAVA_HOME=/root/jdk1.6.0_37export JRE_HOME=/root/jdk1.6.0_37/jreexport HADOOP_HOME=/root/hadoop-1.1.2export HADOOP_DEV_HOME=/root/hadoop-1.1.2export HADOOP_COMMON_HOME=/root/hadoop-1.1.2export HADOOP_HDFS_HOME=/root/hadoop-1.1.2export HADOOP_CONF_DIR=/root/hadoop-1.1.2/conf[root@ centoshadoop1~]#vi /root/hadoop-1.1.2/conf/hadoop-env.shexport JAVA_HOME=/root/jdk1.6.0_37export HADOOP_HOME_WARN_SUPPRESS=1export HADOOP_CLASSPATH=/root/hadoop-1.1.2:/root/hadoop-1.1.2/lib6.配置centoshadoop3节点6.1.修改节点hostname[root@localhost~]#vi/etc/sysconfig/networkHOSTNAME=centoshadoop3[root@localhost~]#vi/etc/hosts……192.168.65.57 centoshadoop1192.168.65.58 centoshadoop2192.168.65.59 centoshadoop3[root@localhost~]#reboot关闭iptables防火墙、建立无ssh密码登陆、安装jdk、安装hadoop软件、添加环境变量等操作跟“配置centoshadoop2节点”完全相同7.启动运行hadoop平台7.1.首先执行格式化[root@ centoshadoop1~]#hadoop namenode –format注意:core-site.xml、hdfs-site.xml、mapred-site.xml等配置文件变化后都需要执行格式化7.2.启动hadoop[root@ centoshadoop1~]#start-all.sh7.3.停止hadoop[root@ centoshadoop1~]#stop-all.sh7.4.查看hadoop运行状态查看hadoop启动的进程[root@ centoshadoop1~]#jps查看hadoop集群状态[root@ centoshadoop1~]#hadoop dfsadmin -report 查看hadoop中的目录情况[root@ centoshadoop1~]#hadoop fs –ls /。

相关文档
最新文档