Centos7安装和配置hadoop2.7.3的流程和总结

Centos7安装和配置hadoop2.7.3的流程和总结
Centos7安装和配置hadoop2.7.3的流程和总结

CentOS7安装完整流程及总结

一、前言

配置一台master服务器,两台(或多台)slave服务器,master 可以无密码SSH登录到slave。卸载centos7自带的openjdk,通过SecureCRT的rz命令上传文件到服务器,解压安装JDK,解压安装Hadoop,配置hadoop的、、、文件。配置好之后启动hadoope服务,用jps命令查看状态。再运行hadoop自带的wordcount程序做一个Hello World实例。

二、准备工作

我的系统:

windows 10 家庭普通中文版

cpu:intel i5

内存:8G

64位操作系统

需要准备的软件和文件(全部是64位安装包)

1.虚拟机:VMware 12 Pro 官网下载:选择DVD ISO(标准版) 及

以上,官网下载:下载地址:

version 三、安装过程

提示:先创建一台虚拟机,安装好centos7系统,使用VMware 的克隆功能,克隆另外两台虚拟机。这样可以节省时间。

虚拟机设置

(根当三台虚拟机安装好之后,获得它们的IP地址,并设置主机名,据实际IP地址和主机名)修改/etc/hosts文件内容为:

1、vi /etc/hosts命令修改,然后保存(vi的相关命令见引用来

源16)

2、more /etc/hosts查看

3、重启后,hosts生效。命令: reboot now

SSH免密码登录

提示:我全程用的都是root用户,没有另外创建用户。每台服务器都生成公钥,再合并到authorized_keys。

1)CentOS默认没有启动ssh无密登录,去掉/etc/ssh/sshd_config

其中2行的注释,每台服务器都要设置,

2)#RSAAuthentication yes

3)#PubkeyAuthentication yes

4)输入命令,ssh-keygen -t rsa,生成key,都不输入密码,一直

回车,/root就会生成.ssh文件夹,每台服务器都要设置,

5)合并公钥到authorized_keys文件,在master服务器,进入

/root/.ssh目录,通过SSH命令合并,(~/.ssh/ 是省略的写法,要根据实际路径来确定)

6)cat >> authorized_keys

7)ssh cat ~/.ssh/ >> authorized_keys

8)ssh. cat ~/.ssh/ >> authorized_keys

9)把master服务器的authorized_keys、known_hosts复制到slave

服务器的/root/.ssh目录

scp -r /root/.ssh/authorized_keys:/root/.ssh/

scp -r /root/.ssh/known_hosts:/root/.ssh/

scp -r /root/.ssh/authorized_keys:/root/.ssh/

scp -r /root/.ssh/known_hosts:/root/.ssh/

10)完成后,ssh、ssh或者(ssh、ssh ) 就不需要输入密码直接登录

到其他节点上。

Secure CRT连接虚拟机

1、在VMware中把三台虚拟机启动,如下图所示:

2、打开SecureCRT,在一个session里连接三台虚拟机,就可以登录实现操作。

Fiel->Quick Connection

Protocol:ssh2 前提条件是在中实现了ssh免密码登录Hostname: 连接的主机名

Username: root 连接主机的用户名

Connect

依次连接好三台虚拟机

3、结果如下:

4、上传windows系统中的文件到虚拟机中

定位到要上传文件的目录下,输入命令:rz,回车后,弹出文件选择窗口,选择文件,点击add,再OK。文件就上传到当前服务器的当前目录下。

rz命令如果没有安装,使用这个命令安装:yum install lrzsz

安装JDK

需要JDK7,由于我的CentOS自带了OpenJDK,所以要先卸载,然后解压下载的JDK并配置变量即可。

1)在/home目录下创建java目录,然后使用rz命令,上传“”到

/home/java目录下,

2)解压,输入命令,tar -zxvf

3)编辑/etc/profile

4)使配置生效,输入命令,source /etc/profile

5)输入命令,java -version,完成

安装

提要

1)secureCRT 上传“,放到/home/hadoop目录下

2)只在master服务器解压,再复制到slave服务器(scp命令传输)

3)解压,输入命令,tar -xzvf 在/home/hadoop目录下创建数据存

放的文件夹,tmp、dfs、dfs/data、dfs/name(文件中会用到)配置文件

1、/home/hadoop/目录下的

/home/hadoop/tmp

131702

2、配置/home/hadoop/目录下的

1

:50090

true

3、配置/home/hadoop/目录下的

yarn

true

:50030

:10020

:19888

:9001

4、配置/home/hadoop/目录下的

mapreduce_shuffle

:8032

:8030

:8031

:8033

:8088

2048

提示:的值一定要注意,在最后的hello world程序运行时,会提示内存太小,(hadoop运行到: Running job后停止运行)我把它从1024改成了2048

5、配置/home/hadoop/目录下、的JAVA_HOME

取消注释,设置为export JAVA_HOME=/home/java/、配置/home/hadoop/目录下的slaves,删除默认的localhost,增加2个slave节点:

7、将master服务器上配置好的Hadoop复制到各个节点对应位置上,通过scp传送

scp -r /home/hadoop

scp -r /home/hadoop 启动hadoop

提示:在master服务器启动hadoop,各从节点会自动启动,进入/home/hadoop/目录,hadoop的启动和停止都在master服务器上执行。

1)初始化,在目录下输入命令,bin/hdfs namenode –format

2)启动命令

sbin/

sbin/

3)输入命令,jps,可以看到相关信息

master上看到

slave上

4)停止命令,依次执行:sbin/、sbin/

至此,hadoop配置完成了。

四、Hadoop入门之HelloWorld程序

摘要:初步接触Hadoop,必不可少的就是运行属于Hadoop的Helloworld程序——wordcount,统计文件中各单词的数目。安装好的Hadoop集群上已有相应的程序。我们来验证一下。

准备数据

在/home/hadoop下创建file文件夹,里面生成,,,四个文件

然后把数据put到HDFS里

进入所在文件夹,使用pwd输出当前目录的路径

在/home/hadoop/目录下执行命令:

bin/hadoop jar share/hadoop/mapreduce/ wordcount /input /output2

INFO : Job job__0001 completed successfully

意味着运行成功,否则就要根据出错信息或者日志排错。其中,/output2是执行结果输出目录(因为之前已经存在了output文件夹了),到此,HelloWorld就顺利执行了,你可以用hadoop fs -cat /output2/part-r-* 命令来查看结果.

结果如下:

查看之前的文件内容,对比上图的结果。

五、引用来源

提示:从安装到配置再到成功运行hadoop的wordcount程序,借鉴了来自以下网页中的智慧,根据实际情况稍做修改。在此表示感谢!

1、CentOS7安装完整流程 - OPEN 开发经验库、CentOS 下SSH远程登录服务器详解

、ssh连接失败,排错经验

、CentOS7安装完整步骤

、CentOS上JDK的安装与环境变量的配置

、分布式安装HADOOP 笔记

、hadoop自带例子程序wordcount详解

、CentOS7中安装,能够正常启动,但datanode的数目为0的解决方法

、集群配置虚拟主机及部署Hadoop集群碰到的问题

、Hadoop在master查看live nodes为0解决方案

、hadoop环境报failed on connection exception

、hadoop节点nodemanager启动失败原因小结~

、Hadoop实战之三~ Hello World

、CentOS安装jdk的三种方法

、利用SecureCRT上传、下载文件(使用sz与rz命令),超实用!、vi编辑文件的命令

、Linux 文件与目录管理

六.总结

完成这次实验花费了很长时间,从网上查找大量的信息,一步一步的实现,中途出现很多bug,大部分是配置文件出错。还有就是对Linux基本命令不熟悉,每遇到一个命令都要到网上去查看它的用法。到最后配置hadoop的时候,一直不能发现数据节点,虽然进程启动了。最后发现是hosts文件的问题,解决方案见引用来源的第10条。最后执行wordcount遇到内存不足的问题,解决方案就是把文件中的的值改成2048,大于程序运行所需要内存就行。这次实验能够成功,很开心自己能坚持完成。中途有几次找不到原因,差点不想做了。在这里感谢帮助我的关**、章**同学,郑学长,以及感谢网络的分享精神,向他们致敬!

回顾整个过程,我有几点小体会:

1、网上的文章有很多,需要仔细甄别,不能直接拿来就用,出现问

hadoop集群完整配置过程详细笔记

本文为笔者安装配置过程中详细记录的笔记 1.下载hadoop hadoop-2.7.1.tar.gz hadoop-2.7.1-src.tar.gz 64位linux需要重新编译本地库 2.准备环境 Centos6.4 64位,3台 hadoop0 192.168.1.151namenode hadoop1 192.168.1.152 datanode1 Hadoop2 192.168.1.153 datanode2 1)安装虚拟机: vmware WorkStation 10,创建三台虚拟机,创建时,直接建立用户ha,密码111111.同时为root密码。网卡使用桥接方式。 安装盘 、 2). 配置IP.创建完成后,设置IP,可以直接进入桌面,在如下菜单下配置IP,配置好后,PING 确认好用。 3)更改三台机器主机名 切换到root用户,更改主机名。 [ha@hadoop0 ~]$ su - root Password: [root@hadoop0 ~]# hostname hadoop0 [root@hadoop0 ~]# vi /etc/sysconfig/network NETWORKING=yes HOSTNAME=hadoop0 以上两步后重启服务器。三台机器都需要修改。 4)创建hadoop用户 由于在创建虚拟机时,已自动创建,可以省略。否则用命令创建。

5)修改hosts文件 [root@hadoop0 ~]# vi /etc/hosts 127.0.0.1 localhostlocalhost.localdomain localhost4 localhost4.localdomain4 ::1localhostlocalhost.localdomain localhost6 localhost6.localdomain6 192.168.1.151 hadoop0 192.168.1.152 hadoop1 192.168.1.153 hadoop2 此步骤需要三台机器都修改。 3.建立三台机器间,无密码SSH登录。 1)三台机器生成密钥,使用hadoop用户操作 [root@hadoop0 ~]# su– ha [ha@hadoop0 ~]$ ssh -keygen -t rsa 所有选项直接回车,完成。 以上步骤三台机器上都做。 2)在namenode机器上,导入公钥到本机认证文件 [ha@hadoop0 ~]$ cat ~/.ssh/id_rsa.pub>>~/.ssh/authorized_keys 3)将hadoop1和hadoop2打开/home/ha/.ssh/ id_rsa.pub文件中的内容都拷贝到hadoop0的/home/ha /.ssh/authorized_keys文件中。如下: 4)将namenode上的/home/ha /.ssh/authorized_keys文件拷贝到hadoop1和hadoop2的/home/ha/.ssh文件夹下。同时在三台机器上将authorized_keys授予600权限。 [ha@hadoop1 .ssh]$ chmod 600 authorized_keys 5)验证任意两台机器是否可以无密码登录,如下状态说明成功,第一次访问时需要输入密码。此后即不再需要。 [ha@hadoop0 ~]$ ssh hadoop1 Last login: Tue Aug 11 00:58:10 2015 from hadoop2 4.安装JDK1.7 1)下载JDK(32或64位),解压 [ha@hadoop0 tools]$ tar -zxvf jdk-7u67-linux-x64.tar.gz 2)设置环境变量(修改/etx/profile文件), export JAVA_HOME=/usr/jdk1.7.0_67 export CLASSPATH=:$CLASSPATH:$JAVA_HOME/lib:$JAVA_HOME/jre/lib export PATH=$PATH:$JAVA_HOME/bin:$JAVA_HOME/jre/bin 3)使环境变量生效,然后验证JDK是否安装成功。

Hadoop集群MYSQL的安装指南

前言 本篇主要介绍在大数据应用中比较常用的一款软件Mysql,我相信这款软件不紧紧在大数据分析的时候会用到,现在作为开源系统中的比较优秀的一款关系型开源数据库已经被很多互联网公司所使用,而且现在正慢慢的壮大中。 在大数据分析的系统中作为离线分析计算中比较普遍的两种处理思路就是:1、写程序利用 mapper-Reducer的算法平台进行分析;2、利用Hive组件进行书写Hive SQL进行分析。 第二种方法用到的Hive组件存储元数据最常用的关系型数据库最常用的就是开源的MySQL了,这也是本篇最主要讲解的。 技术准备 VMware虚拟机、CentOS 6.8 64 bit、SecureCRT、VSFTP、Notepad++ 软件下载 我们需要从Mysql官网上选择相应版本的安装介质,官网地址如下: MySQL下载地址:https://www.360docs.net/doc/967341626.html,/downloads/

默认进入的页面是企业版,这个是要收费的,这里一般建议选择社区开源版本,土豪公司除外。

然后选择相应的版本,这里我们选择通用的Server版本,点击Download下载按钮,将安装包下载到本地。 下载完成,上传至我们要安装的系统目录。 这里,需要提示下,一般在Linux系统中大型公用的软件安装在/opt目录中,比如上图我已经安装了Sql Server On linux,默认就安装在这个目录中,这里我手动创建了mysql目录。 将我们下载的MySQL安装介质,上传至该目录下。

安装流程 1、首先解压当前压缩包,进入目录 cd /opt/mysql/ tar -xf mysql-5.7.16-1.el7.x86_64.rpm-bundle.tar 这样,我们就完成了这个安装包的解压。 2、创建MySql超级管理用户 这里我们需要单独创建一个mySQL的用户,作为MySQL的超级管理员用户,这里也方便我们以后的管理。 groupaddmysql 添加用户组 useradd -g mysqlmysql 添加用户 id mysql 查看用户信息。

Hadoop集群安装配置教程_Hadoop2.6.0_Ubuntu_CentOS

Hadoop集群安装配置教程_Hadoop2.6.0_Ubuntu/CentOS 本教程讲述如何配置Hadoop 集群,默认读者已经掌握了Hadoop 的单机伪分布式配置,否则请先查看Hadoop安装教程_单机/伪分布式配置或CentOS安装Hadoop_单机/伪分布式配置。 本教程由厦门大学数据库实验室出品,转载请注明。本教程适合于原生Hadoop 2,包括Hadoop 2.6.0, Hadoop 2.7.1 等版本,主要参考了官方安装教程,步骤详细,辅以适当说明,保证按照步骤来,都能顺利安装并运行Hadoop。另外有Hadoop安装配置简略版方便有基础的读者快速完成安装。 为了方便新手入门,我们准备了两篇不同系统的Hadoop 伪分布式配置教程。但其他Hadoop 教程我们将不再区分,可同时适用于Ubuntu 和CentOS/RedHat 系统。例如本教程以Ubuntu 系统为主要演示环境,但对Ubuntu/CentOS 的不同配置之处、CentOS 6.x 与CentOS 7 的操作区别等都会尽量给出注明。 环境 本教程使用Ubuntu 14.04 64位作为系统环境,基于原生Hadoop 2,在Hadoop 2.6.0 (stable)版本下验证通过,可适合任何Hadoop 2.x.y 版本,例如Hadoop 2.7.1,Hadoop 2.4.1 等。 本教程简单的使用两个节点作为集群环境: 一个作为Master 节点,局域网IP 为192.168.1.121;另一个作为Slave 节点,局域网IP 为192.168.1.122。 准备工作 Hadoop 集群的安装配置大致为如下流程: 1.选定一台机器作为Master 2.在Master 节点上配置hadoop 用户、安装SSH server、安装Java 环境 3.在Master 节点上安装Hadoop,并完成配置 4.在其他Slave 节点上配置hadoop 用户、安装SSH server、安装Java 环境 5.将Master 节点上的/usr/local/hadoop 目录复制到其他Slave 节点上 6.在Master 节点上开启Hadoop 配置hadoop 用户、安装SSH server、安装Java 环境、安装Hadoop 等过程已经在Hadoop安装教程_单机/伪分布式配置或CentOS安装Hadoop_单机/伪分布式配置中有详细介绍,请前往查看,不再重复叙述。 继续下一步配置前,请先完成上述流程的前 4 个步骤。 网络配置 假设集群所用的节点都位于同一个局域网。 如果使用的是虚拟机安装的系统,那么需要更改网络连接方式为桥接(Bridge)模式,才能实现多个节点互连,例如在VirturalBox 中的设置如下图。此外,如果节点的系统是在虚拟机中直接复制的,要确保各个节点的Mac 地址不同(可以点右边的按钮随机生成MAC 地址,否则IP 会冲突):

出纳人员月度工作总结

出纳人员月度工作总结 亲爱的朋友,很高兴能在此相遇!欢迎您阅读文档出纳人员月度工作总结,这篇文档是由我们精心收集整理的新文档。相信您通过阅读这篇文档,通过我们大家思想的碰撞,一定会激发出您写作的动力。还有,阁下能将此文档加入收藏或者转发出去,是我们莫大的荣幸,更是我们继续前行的动力。 出纳人员必须具备良好的职业道德修养,要热爱本职工作。下面小编就和大家分享,来欣赏一下吧。 首先,在领导的帮助下我了解了出纳岗位的各种制度及其日常的工作流程。在同事们的指导和帮助下使我学到了很多工作中的知识,使我最快的熟悉了这份新的工作。在工作岗位没有高低之分,一定要好好工作,来体现人生价值。同时为了提高工作效率,平时自学电脑知识和ERP的出纳知识及操作,利用ERP使工作更加准确和快速。 其次作为公司出纳,我在收付、反映、监督四个方面尽到了应尽的职责,过去的几个月里在不断改善工作方式方法的同时,顺利完成如下工作: 一、日常工作: 1、严格执行现金管理和结算制度,定期向会计核对现金与帐目,发现金额不符,做到及时汇报,及时处理。

2、及时收回公司各项收入,开出收据,及时收回现金存入银行。 3、根据会计提供的依据,与银行相关部门联系,井然有序地完成了职工工资和其它应发放的经费发放工作。 4、坚持财务手续,严格审核(凭证上必须有经手人及相关领导的签字才能给予支付),对不符手续的凭证不付款。 二、其他工作 1、迎接公司上市财务审计,准备所需财务相关材料为迎接审计部门对我公司帐务情况的检查工作,做好前期自查自纠工作,对检查中可能出现的问题做好统计,并提交领导审阅。在工作中,我忠于职守,尽力而为,领导和同事们也给了我很大的帮助和鼓励。 2.完成领导交付的其他工作。 三.回顾检查自身存在的问题,我认为: 一、学习不够。当前,以信息技术为基础的会计软件的应用及理论基储专业知识、工作方法等不能完全适应新的工作。 二、对针对以上问题,今后的努力方向是: 加强理论学习,进一步提高工作效率。对业务的熟悉,必须通过相关专业知识的学习,虚心请教领导和同事增强分析问题、解决问题的能力,努力学习,争取在明年取得会计从业资格证书。

Hadoop-0.20.2详细安装及疑难问题

安装 2011年4月4日 10:13 Hadoop-0.20.2安装使用 1、Cygwin 安装 ssh 2、按照以下的文档配置ssh 在Windows上安装Ha doop教程.pdf 3、几个配置文件的配置 3.1、conf/core-site.xml https://www.360docs.net/doc/967341626.html, hdfs://localhost:9000 true hadoop.tmp.dir /workspace/temp/hadoop/tmp/hadoop- ${https://www.360docs.net/doc/967341626.html,} true 3.2、conf/hdfs-site.xml dfs.replication 1 true https://www.360docs.net/doc/967341626.html,.dir /workspace/temp/hadoop/data/hadoop/name true

dfs.data.dir /workspace/temp/hadoop/data/hadoop/data true 3.3、conf/mapred-site.xml mapred.job.tracker localhost:9001 true 3.4、conf/hadoop-env.sh export JAVA_HOME=D:/workspace/tools/jdk1.6 4、解决启动的时候 ClassNotFound: org.apache.hadoop.util.PlatformName 将 %hadoop_home%\bin\hadoop-config.sh中的第190行 修改为如下: JAVA_PLATFORM=`CLASSPATH=${CLASSPATH} ${JAVA} -Xmx32m -classpath ${HADOOP_COMMON_HOME}/hadoop-common-0.21.0.jar org.apache.hadoop.util.PlatformName | sed -e "s/ /_/g"` 5、命令

公司月总结会议流程

竭诚为您提供优质文档/双击可除公司月总结会议流程 篇一:关于公司周例会、月度总结例会流程通知 关于公司周例会及月度总结例会流程通知 为使每次会议更高效、有序,现将开会有关事项通知如下,各员工须遵照执行。 一、周例会 1、时间:每周一下午13:30-15:00(控制在1.5小时内) 2、参与人员:各部门负责人 3、主持:各参与人员轮流主持 4、会议流程 会前:①会议室清洁、整理,根据与会人员安排好座位等。②根据需要印发会议文件资料。 ③根据需要准备好会议记录工具(笔,记录本,录音笔等)。④根据需要准备好会议需用的设备(电脑,投影仪等)。 ⑤至少提前半个工作日发放会议通知,并把与会人员情况反馈给会议主持者。⑥与会人员需提前准备好会中所需汇报内容。 ⑦与会人员需提前安排好会议时间段内所需处理的其

它工作。⑧手机关机或调成静音状态。⑨会议记录与主持者,需提前一分钟到达会议室。⑩如有其它新的指示安排,提前告知与会人员。 会中:①会议记录者根据既定的记录格式做好会议记录。 ②会议主持者根据既定的会议议程控制整个会议过程。③与会人员积极发言,并注意自己的语气、语速、音量等。会议内容:与会人员汇报上次会议决策执行情况及本周具体工作计划、安排。会后:①发放会议记录,(根据需要发放给与 会人员及未与会人员)。会议记录应准确,会议中所形成的 决策要突出承担行动的责任人、具体完成时间及标准。 ②根据会议对执行进行监督、检查、反馈。 二、月例会 1、时间:每月三号下午13:30-15:30(控制在2小时内) 2、参与人员:公司全体员工 3、主持:阮总 4、会议流程会前:同上会中:同上 会议内容:①由店长汇报上月店铺整体计划指标完成情况,并由各部分责任人协同汇报在执行计划过程中发现的问题,未(如未完成)完成的原因,解决方案,具体行动计划等。②本月主要工作计划、指标(包括责任人、具体完成时间、达到标准等) 会后:同上 三、开会注意事项及纪律要求

hadoop3安装和配置

hadoop3.0.0安装和配置1.安装环境 硬件:虚拟机 操作系统:Centos 7 64位 IP:192.168.0.101 主机名:dbp JDK:jdk-8u144-linux-x64.tar.gz Hadoop:hadoop-3.0.0-beta1.tar.gz 2.关闭防火墙并配置主机名 [root@dbp]#systemctl stop firewalld #临时关闭防火墙 [root@dbp]#systemctl disable firewalld #关闭防火墙开机自启动 [root@dbp]#hostnamectl set-hostname dbp 同时修改/etc/hosts和/etc/sysconfig/network配置信息 3.配置SSH无密码登陆 [root@dbp]# ssh-keygen -t rsa #直接回车 [root@dbp]# ll ~/.ssh [root@dbp .ssh]# cp id_rsa.pub authorized_keys [root@dbp .ssh]# ssh localhost #验证不需要输入密码即可登录

4.安装JDK 1、准备jdk到指定目录 2、解压 [root@dbp software]# tar–xzvf jdk-8u144-linux-x64.tar.gz [root@dbp software]# mv jdk1.8.0_144/usr/local/jdk #重命名4、设置环境变量 [root@dbp software]# vim ~/.bash_profile 5、使环境变量生效并验证 5.安装Hadoop3.0.0 1、准备hadoop到指定目录 2、解压

Hadoop全分布式安装配置

Hadoop全分布式安装配置 一实验目的: 1、了解Hadoop的体系结构、组成; 2、熟练掌握Hadoop的配置、安装方法; 3、通过安装Hadoop了解Hadoop的原理; 二实验内容: 集群包含三个安装了Linux操作系统的节点。将其中的一个节点作为NameNode,另外两个节点作为DataNode,安装之前先利用ping命令,确认三个节点之间的网络互通,即可以互相ping通。假设三个节点IP地址如下,实际的集群节点IP地址可以不同。 NameNode:192.168.198.2 主机名:master DataNode1:192.168.198.3 主机名:slaver1 DataNode2:192.168.198.4 主机名:slaver2 三实验环境: 在申请的虚拟服务器上安装了VMWare Workstation虚拟3个Ubuntu14.04系统。 四安装配置过程: 1、安装Vmware WorkStation软件 下载安装Vmware WorkStation12.0软件。 2、在虚拟机上安装linux操作系统 在Vmware WorkStation12.0中创建一个Ubuntu14.04系统。拷贝镜像文件复制出三个系统。分别为master、slaver1、slaver2。 3、配置hosts、hostname文件

在三台机器上配置相同的hosts文件 (1)修改hosts sudo gedit /etc/hosts 192.168.198.200 master 192.168.198.199 slave1 192.168.198.198 slave2 (2)修改hostname sudo gedit /etc/hostname 4、配置ip地址 配置ip:sudo gedit /etc/network/interfaces slave2 auto eth0 iface eth0 inet static address 192.168.198.198 gateway 192.168.198.107 netmask 255.255.255.0 slave1 auto eth0 iface eth0 inet static address 192.168.198.199 gateway 192.168.198.107 netmask 255.255.255.0 master auto eth0 iface eth0 inet static address 192.168.198.200 gateway 192.168.198.107 netmask 255.255.255.0

centos下hadoop2.6.0配置

Hadoop-2.6.0配置 前面的部分跟配置Hadoop-1.2.1的一样就可以,什么都不用变,完全参考文档1即可。下面的部分就按照下面的做就可以了。 hadoop-2.6.0的版本用张老师的。 下面的配置Hadoop hadoop-2.6.0的部分 1.修改hadoop- 2.6.0/etc/hadoop/hadoop-env.sh,添加JDK支持: export JAVA_HOME=/usr/java/jdk1.6.0_45 如果不知道你的JDK目录,使用命令echo $JAVA_HOME查看。 2.修改hadoop-2.6.0/etc/hadoop/core-site.xml 注意:必须加在节点内 hadoop.tmp.dir /home/hadoop/hadoop-2.6.0/tmp Abase for other temporary directories. https://www.360docs.net/doc/967341626.html, hdfs://master:9000 3.修改hadoop-2.6.0/etc/hadoop/hdfs-site.xml https://www.360docs.net/doc/967341626.html,.dir /home/hadoop/hadoop-2.6.0/dfs/name Path on the local filesystem where the NameNode stores the namespace and transactions logs persistently. dfs.data.dir /home/hadoop/hadoop-2.6.0/dfs/data Comma separated list of paths on the local filesystem of a DataNode where it should store its blocks. dfs.replication 1 4.修改hadoop-2.6.0/etc/hadoop/mapred-site.xml

月度工作总结报告

月工作总结报告怎么写? 很多人都不会写月工作总结,其实很简单,照猫画虎就好了。大抵月总结报告都是"三段式",第一部分写这个月做了哪些工作,也就是主要工作内容;第二部分写工作中存在的问题;第三部分写工作中的收获。当然了,文章开头必须带个帽子,总结末位最后一段来一个总结就更加完整了。 下面是详细说明,斜体是例子,其他的要仔细阅读领会: 总结起头: 时间过的好快,转眼一个月过去了。我已经在xxx部门工作了一个月。在公司领导的培养、关心、鼓励和帮助、支持、配合下,我不断加强思想政治学习及公司规章制度学习,对工作精益求精,基本完成了自己岗位上的各项工作内容。下面我将自己在这段时间的工作内容、工作中存在的问题及收获、感想等做一个简要的总结。 上面一段是帽子,你发挥你的文采吧。后面要来点干货了,这一章节难在你忙了一个月,都不知道忙了些啥,怎么办,其实很好办,每天做每天记录下来,最简单的方法是记录到手机上,找个软件,比如idodo待办,目前是也我用过最好的待办软件,可以导出工作总结。边工作,边记录,养成很好的习惯,特别是帮助你提供工作效率和解决自己的拖延问题。 一、主要工作内容 1.参与xxxxx工作 9月5日,我和..... 展开整段的描述,比如怎么干的啊,做了哪些细致的动作,这些事情不会忘记的,因为前面我给你说过了,找个类似idodo待办那样的软件随手记录,你会发现很详细。后续的如法炮制。 2.x xxxxx工作 详细描述..... 3.................. 二、工作中存在的问题 1.对xxxx还缺乏全面了解 我并非学的气象专业和农学专业,因此在真正接触时,还是有些陌生,部分生产环节仅仅停留在对理论知识的认识上,在实际操作过程中便束手无策了。还有部分生产环境根本不知道如何操作。 2.缺乏主人翁意识 。。。。。。。 3.缺乏时刻记录的习惯 在领导安排某些工作或自己规划要做某些工作时,仅仅做到了耳朵听着,心里想着,没有意识在工作日志上记录下来,所以有些事情虽然当时能够记住需要去做,但过一段时间后便抛到九霄云外了。在以后的工作中要时刻提醒自己"好记性不如烂笔头,养成时刻记录的习惯。" 看到了没有,找出几个方面的问题,先标题,然后展开说就好了,如何展开?不会啊,其实很简单啦,把一碗豆腐说成一碗雪白雪白的,让人吃一口想三月的豆腐。呵呵~当然了,时候分析,记录真的很重要。 三、工作中获得的收获 1、团队协作重要性高于个人英雄主义 一把筷子折不断....... 上面是一个例子,你经过自己去思考,这个很重要,特别是对你的成长。这部分要认真思考,这样你才能有收获。 最后就是结尾,可以把全文做个概括,或展望,或规划,或畅想...,下面是个例子:总之,在这一个多月的工作时间里,工作中存在的问题和不足将促使我加倍努力去改正,工作

(完整word版)hadoop安装教程

1、VMware安装 我们使用Vmware 14的版本,傻瓜式安装即可。(只要) 双击 如过 2.安装xshell 双击 3.安装镜像: 解压centos6.5-empty解压 双击打开CentOS6.5.vmx 如果打不开,在cmd窗口中输入:netsh winsock reset 然后重启电脑。 进入登录界面,点击other 用户名:root 密码:root 然后右键open in terminal 输入ifconfig 回车 查看ip地址

打开xshell

点击链接 如果有提示,则接受 输入用户名:root 输入密码:root 4.xshell连接虚拟机 打开虚拟机,通过ifconfig查看ip

5.安装jkd 1.解压Linux版本的JDK压缩包 mkdir:创建目录的命令 rm -rf 目录/文件删除目录命令 cd 目录进入指定目录 rz 可以上传本地文件到当前的linux目录中(也可以直接将安装包拖到xshell窗口) ls 可以查看当前目录中的所有文件 tar 解压压缩包(Tab键可以自动补齐文件名)

pwd 可以查看当前路径 文档编辑命令: vim 文件编辑命令 i:进入编辑状态 Esc(左上角):退出编辑状态 :wq 保存并退出 :q! 不保存退出 mkdir /home/software #按习惯用户自己安装的软件存放到/home/software目录下 cd /home/software #进入刚刚创建的目录 rz 上传jdk tar包 #利用xshell的rz命令上传文件(如果rz命令不能用,先执行yum install lrzsz -y ,需要联网) tar -xvf jdk-7u51-linux-x64.tar.gz #解压压缩包 2.配置环境变量 1)vim /etc/profile 2)在尾行添加 #set java environment JAVA_HOME=/home/software/jdk1.8.0_65 JAVA_BIN=/home/software/jdk1.8.0_65/bin PATH=$JAVA_HOME/bin:$PATH CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar export JAVA_HOME JAVA_BIN PATH CLASSPATH Esc 退出编辑状态 :wq #保存退出 注意JAVA_HOME要和自己系统中的jdk目录保持一致,如果是使用的rpm包安

hadoop2.6基于yarn安装配置详解

Hadoop2.6配置详解 在hadoop2.0中通常由两个NameNode组成,一个处于active状态,另一个处于standby状态。Active NameNode对外提供服务,而Standby NameNode则不对外提供服务,仅同步active namenode的状态,以便能够在它失败时快速进行切换。 这里还配置了一个zookeeper集群,用于ZKFC(DFSZKFailoverController)故障转移,当Active NameNode挂掉了,会自动切换Standby NameNode为standby状态hadoop-2.2.0中依然存在一个问题,就是ResourceManager只有一个,存在单点故障,hadoop-2.6解决了这个问题,有两个ResourceManager,一个是Active,一个是Standby,状态由zookeeper进行协调 hadoop2.0官方提供了两种HDFS HA的解决方案,一种是NFS,另一种是QJM(由cloudra提出,原理类似zookeeper)。这里我使用QJM完成。主备NameNode之间通过一组JournalNode同步元数据信息,一条数据只要成功写入多数JournalNode即认为写入成功。通常配置奇数个JournalNode 1安装前准备 1.1示例机器 192.168.0.10 hadoop1 192.168.0.20 hadoop2 192.168.0.30 hadoop3 192.168.0.40 hadoop4 每台机器都有一个hadoop用户,密码是hadoop 所有机器上安装jdk1.7。 在hadoop2,hadoop3,hadoop4上安装Zookeeper3.4集群。 1.2配置ip与hostname 用root用户修改每台机器的hosts

月度工作总结报告

月度工作总结报告 篇一:月工作总结报告怎么写 月工作总结报告怎么写? 很多人都不会写月工作总结,其实很简单,照猫画虎就好了。大抵月总结报告都是“三段式”,第一部分写这个月做了哪些工作,也就是主要工作内容;第二部分写工作中存在的问题;第三部分写工作中的收获。当然了,文章开头必须带个帽子,总结末位最后一段来一个总结就更加完整了。 下面是详细说明,斜体是例子,其他的要仔细阅读领会:总结起头: 时间过的好快,转眼一个月过去了。我已经在xxx部门工作了一个月。在公司领导的培养、关心、鼓励和帮助、支持、配合下,我不断加强思想政治学习及公司规章制度学习,对工作精益求精,基本完成了自己岗位上的各项工作内容。下面我将自己在这段时间的工作内容、工作中存在的问题及收获、感想等做一个简要的总结。 上面一段是帽子,你发挥你的文采吧。后面要来点干货了,这一章节难在你忙了一个月,都不知道忙了些啥,怎么办,其实很好办,每天做每天记录下来,最简单的方法是记录到手机上,找个软件,比如idodo待办,目前是也我用过最好的待办软件,可以导出工作总结。边工作,边记录,养成很好的习惯,特别是帮助你提供工作效率和解决自己的拖

延问题。一、主要工作内容 1.参与xxxxx工作 9月5日,我和….. 展开整段的描述,比如怎么干的啊,做了哪些细致的动作,这些事情不会忘记的,因为前面我给你说过了,找个类似idodo待办那样的软件随手记录,你会发现很详细。后续的如法炮制。 工作 详细描述….. 3……………… 二、工作中存在的问题 1.对xxxx还缺乏全面了解 我并非学的气象专业和农学专业,因此在真正接触时,还是有些陌生,部分生产环节仅仅停留在对理论知识的认识上,在实际操作过程中便束手无策了。还有部分生产环境根本不知道如何操作。 2.缺乏主人翁意识 。。。。。。。 3.缺乏时刻记录的习惯 在领导安排某些工作或自己规划要做某些工作时,仅仅做到了耳朵听着,心里想着,没有意识在工作日志上记录下来,所以有些事情虽然当时能够记住需要去做,但过一段时

hadoop安装简要过程和相关配置文件

Hadoop安装简要过程及配置文件 1、机器准备 ①、Linux版操作系统centos 6.x ②、修改主机名,方便配置过程中记忆。修改文件为: /etc/sysconfig/network 修改其中的HOSTNAME即可 ③、配置局域网内,主机名与对应ip,并且其中集群中所有的机器的文件相同,修改文件为 /etc/hosts 格式为: 10.1.20.241 namenode 10.1.20.242 datanode1 10.1.20.243 datanode2 2、环境准备 ①、配置ssh免密码登陆,将集群中master节点生成ssh密码文件。具体方法: 1)、ssh-keygen -t rsa 一直回车即可,将会生成一份 ~/.ssh/ 文件夹,其中id_rsa为私钥文件 id_rsa.pub公钥文件。 2)、将公钥文件追加到authorized_keys中然后再上传到其他slave节点上 追加文件: cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys 上传文件: scp ~/.ssh/authorized_keys root@dananode:~/.ssh/ 3)、测试是否可以免密码登陆:ssh 主机名或局域网ip ②、配置JDK ③、创建hadoop用户 groupadd hadoop useradd hadoop -g hadoop 4)、同步时间 ntpdate https://www.360docs.net/doc/967341626.html, 5)、关闭防火墙 service iptables stop 3、安装cdh5 进入目录/data/tools/ (个人习惯的软件存储目录,你可以自己随便选择); wget "https://www.360docs.net/doc/967341626.html,/cdh5/one-click-install/redhat/ 6/x86_64/cloudera-cdh-5-0.x86_64.rpm" yum --nogpgcheck localinstall cloudera-cdh-5-0.x86_64.rpm 添加cloudera仓库验证: rpm --importhttps://www.360docs.net/doc/967341626.html,/cdh5/redhat/6/x86_64/cdh/RPM-GPG-KEY-cloudera

会议记录工作总结

会议记录工作总结 第一篇、会议记录 会议记录员个人总结 会议纪要 会议时间 2021 年 8 月 15 日 会议地点盛泰搅拌站总经理办公室 参加单位及人员华良宗士伟王广林张录明刘滨申希 为规范公司业务管理,加强公司风险管控能力,降本增效,提升公司效益, 公司领导班子于 2021 年8月15 日在总经理办公室召开关于公司强化管理的研 讨会,现纪要如下 1、为实现公司各部门工作情况有效上传下达,总经理宗士伟要求公司管理 层以后每周一早上 8 点 30 整召开周例会,会上要详细汇报上周所存在问题的事 项,并制定当周的工作计划,要求事实求实 2、由各部门对本部门工作流程及核心制度进行梳理,并上会通过,对今后公司各部门的工作给予指示,要求严格执行工作流程,如有特殊情况,需提前汇报给公司总经理后根据指示作出变更。工作内容做好痕迹管理,各项检查需要留有记录。

3、生产部王广林汇报了部门流程问题,并制定了本周工作内容,即在保证生产的前提下,要求本部门对工作流程进行认真学习,对管辖区域卫生和安全进行检查落实,对铲车罐车及司机进行安全教育,同时对公司司机完善挂靠协议、签订安全协议书,配合公司中心任务收账。 4、张录明汇报财务部各项工作情况本周继续进行污水处理厂账款催缴,王立的账目催缴,建立健全财务泵房工作制度,要求本部门人员进行部门业务学习培训,存档并在下周例会检查。 5、实验室刘滨目前存在部分问题一是未接到生产任务单,主机就开始生产,生产上与主机直接沟通联系没有通过实验室,下一步要求生产主机人员必须有实验室人员签字后生产才可以生产;计划要求实验室人员按照国家标准组织学习,主要是技术、原材料参数及本岗位方面的知识内容,提升整体人员素质;对之前资料混乱的情况进行改革,将没有存档和备查记录的资料进行梳理。 6、业务部申希根据领导要求业务部改为市场部,要有固定市场开发人员 及临时人员,加强市场开发和账目催缴。对栗河物流园、茶尔路口张武、白 桐 3 标段、光彩大世界、伏牛路何富强加强要账力度。 总经理对本次会议进行总结

学生会个人月工作总结900字(完美版)

学生会个人月工作总结900字 新的学期里,学院又迎来了新的一批莘莘学子。在9月2日当天,作为团委的工作人员之一,我投入到了热闹而且富有挑战性的迎新队伍当中去了。在工作的一个上午,虽不长,但却留给我深刻的印象。 工作内容是提前几个星期就已经布置好的了,但是临时有了变动,我当天的工作主要是在教四的咨询点工作,负责把新生带回大本营和解决交学费、转移户口的问题。总的来讲,我当天的工作中没有出现很大的失误。但是在遇到接待需要转户口的新生时,我没能很清楚地带领新生去走流程,我只好边询问那边的工作人员边带领,这是我需要检讨的。但经历过一次之后,我立刻给组长反馈信息和一些转移户口的注意事项、流程,因此在后来的开展工作中我们组的人员比较顺利地完成了任务。 但是在我们工作的时候,我们发现有很多新生在大本营没有领取校园卡,来到教四转户口时才发现是必须校园卡的,以至于要花费时间和精力跑回去大本营领取校园卡,甚至给新生及家长带来不好的印象。这一点是我们时常发现的,经过探讨,这应该是与大本营的工作人员没有做到位有联系,他们误解了“已经注册成功”的意思,以为校园卡要到教四领取。我想,这是很多带领新生走流程的班级人员都会误解的,因为很多班级人员都不是十分清楚自己的任务及其整个注册流程。所以,在往后的动员程序操作过程中,建议我们印发详细的资料并确保到达每一位班级工作人员手中。例如让班级负责人群发邮

件,讲解详细的工作内容而并不是简单的概括字眼。 值得肯定的是,我们的迎新任务给大多数新生时留下了较好的印象的。在接待的过程中,我就能感受到家长们的热情,特别是有关孩子们的往后学习、生活的,都要问个水落石出。我看见我们的工作班级和相关人员都很积极地回答他们的问题,甚至帮忙提行李之类的,这就体现着我们的精神“团结创新,服务同学”。在当天的工作中,虽然有问题存在,但我们能随即应变,及时解决问题,这的确减少了我们耽误的时间。 工作完毕后,我们的迎新工作算是告一段落了,但是在接下来的宿舍走访工作中,我们还是要秉着“服务同学”的心态去宣传我们的学院,我们的团委大家庭,力求给师弟师妹们留下一个更好的印象。

Hadoop的安装与配置及示例wordcount的运行

Hadoop的安装与配置及示例程序 wordcount的运行 目录 前言 (1) 1 机器配置说明 (2) 2 查看机器间是否能相互通信(使用ping命令) (2) 3 ssh设置及关闭防火墙 (2) 1)fedora装好后默认启动sshd服务,如果不确定的话可以查一下[garon@hzau01 ~]$ service sshd status (3) 2)关闭防火墙(NameNode和DataNode都必须关闭) (3) 4 安装jdk1.6(集群中机子都一样) (3) 5 安装hadoop(集群中机子都一样) (4) 6 配置hadoop (4) 1)配置JA V A环境 (4) 2)配置conf/core-site.xml、conf/hdfs-site.xml、conf/mapred-site.xml文件 (5) 3)将NameNode上完整的hadoop拷贝到DataNode上,可先将其进行压缩后直接scp 过去或是用盘拷贝过去 (7) 4)配置NameNode上的conf/masters和conf/slaves (7) 7 运行hadoop (7) 1)格式化文件系统 (7) 2)启动hadoop (7) 3)用jps命令查看进程,NameNode上的结果如下: (8) 4)查看集群状态 (8) 8 运行Wordcount.java程序 (8) 1)先在本地磁盘上建立两个文件f1和f2 (8) 2)在hdfs上建立一个input目录 (9) 3)将f1和f2拷贝到hdfs的input目录下 (9) 4)查看hdfs上有没有f1,f2 (9) 5)执行wordcount(确保hdfs上没有output目录) (9) 6)运行完成,查看结果 (9) 前言 最近在学习Hadoop,文章只是记录我的学习过程,难免有不足甚至是错误之处,请大家谅解并指正!Hadoop版本是最新发布的Hadoop-0.21.0版本,其中一些Hadoop命令已发生变化,为方便以后学习,这里均采用最新命令。具体安装及配置过程如下:

月度总结会流程

电销中心*月总结会流程 一、会议入场时间:*月*日下午3:50 二、会议时间:*月*日下午4:00-5:40 三、会议地点:** 四、会务组成员: 主持人:小米 音乐控制,视频及PPT控制:小玲 奖金台颁发:小李小梦 会场助理【主要协助主持人】:小梦 拍照:小明 投影、音响技术支持:网管 照片上传本地服务器 五、参会人员:全体员工 六、背景音乐 开场前准备:我相信-华语群星 主持人上场音乐 热场环节:周家如-节奏(伴奏版) 晋升音乐:Nicole Cross-someting Just Like This 颁奖音乐:超越极限 冠军致辞:Hall of fame <伴奏> 优秀之星:艾薇儿-Fly 提成过万:梦回还 提名环节:汪峰-怒放的生命

七、会议流程: 1.开场互动游戏,游戏名字:抢可乐。游戏规则:游戏5人一组,一轮分2组进行游戏,分别由各小组派一名代表上台参与游戏。两组分别站在可乐的左右两边。游戏开始后,大家按照主持人的口令做出相应的动作,比如主持人说“摸耳朵”,所有人要迅速反应摸耳朵,说“摸屁股”,所有人要迅速反应摸屁股。当主持人说“抢”大家迅速去抢地面上对应自己的可乐,抢到的同事即可获得手中可乐。 上台顺序:第一轮:左边:1组、2组、3组、5组、6组。 右边:9组、10组、11组、12组、13组。 第二轮:左边:7组、8组、21组、22组、20组。 右边:15组、16组、17组、18组、19组。 2.总结环节:代表讲话→总裁(总结10月份工作) 3.晋级仪式: 3-1颁布本月领导层晋级名单,晋级人员从红毯上挥手上台! 3-2颁布本月个人晋级名单,晋级人员从红毯上挥手上台! 3-3.宣誓环节:宣誓词看附件!

相关文档
最新文档