分布并行计算技术
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
Hadoop部署
所需要的软件
使用VMwareWorkstationPro搭建虚拟机,安装操作系统 Ubuntu14.04。
JDK1.8
Hadoop2.6.0
1.在Ubuntu中安装JDK
将JDK解压缩到 /home/kluas/java
在~/.bash_profile中配置环境变量,并通过source~/.bash_profile生效。
#java
export JAVA_HOME=/home/kluas/java/jdk
export JRE_HOME=/home/kluas/java/jdk/jre
export PATH=$JAVA_HOME/bin;$JRE_HOME/bin:$PATH
export CLASSPATH=$JAVA_HOME/lib:$JRE_HOME/lib:$CLASSPATH
检验JDK是否安装成功 java –version
2.配置ssh信任关系,实现无密码登录
生成机器A的公私密钥对:ssh-keygen -t rsa,之后一路回车。在~/.ssh 目录下生成公钥id_rsa.pub,私钥id_ras。
拷贝机器A的id_rsa.pub到机器B的认证文件中:
cat id_rsa.pub >> ~/.ssh/authorized_keys
这时候机器A到机器B的信任关系就建立好了,此时在机器A可以不需要密码直接ssh登录机器B了
3.安装Hadoop2.6.0
解压hadoop软件包,编辑/etc/profile文件,并追加
export HADOOP_HOME=/usr/kluas/Hadoop
export PATH=HADOOP_HOME/bin:$PATH
运行 source /etc/profile命令
修改配置文件hadoop目录etc/Hadoop/Hadoop-env.sh追加:
export JAVA_HOME=/home/kluas/java/jdk
修改配置文件hadoop目录下etc/Hadoop/core-site.xml追加:
修改配置文件hadoop目录下etc/Hadoop/hdfs-site.xml追加:
修改配置文件hadoop目录下etc/Hadoop/yarn-site.xml追加:
修改配置文件hadoop目录下etc/Hadoop/mapred-site.xml追加:
编辑hadoop目录下etc/hadoop/master追加:
master
编辑hadoop目录下etc/hadoop/slaves追加:
slave1
slave2
格式化HDFS:master节点运行命令 hdfs namenode –format
master节点运行hadoop目录下sbin/start.all.sh启动所有程序
4.验证Hadoop环境搭建是否成功:
在master和slave节点上输入命令jps
Spark部署:
1.下载spark软件包,重命名conf/目录下spark-env,sh.template为
spark-env.sh。重命名conf/目录下slaves.template为slaves。
2.配置spark
编辑conf/spark-env.sh文件,在开头添加配置信息:
export
SPARK_DIST_CLASSPATH=$(/usr/local/hadoop/bin/hadoop/bin/hadoop/cla sspath)
export JAVA_HOME=/usr/local/jdk64/jdk1.8