hadoop常用命令

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

所有hadoop命令均由hadoop主目录下bin/hadoop脚本引发,部分在bin/hadoop

一、HADOOP的启动与关闭

sh ./sbin/start-all.sh --启动(注意启动环境,必须从hadoop主目录)

sh ./sbin/stop-all.sh

bin/Hadoopversion 查看版本http://localhost:50070(localhost也可是master的ip)

jps //OS级查看hadoop进程

二、文件操作

Hadoop fs 选项(应用较广,包括本地文件系统),推荐hdfs对应命令dfs

bin/hdfs dfsadmin –report//查看节点运行状态

bin/hdfs dfs -mkdir /t2//在hdfs根目录创建子目录t2

bin/hdfs dfs -ls ///列出目录

bin/hdfs dfs -put /hadoop/hadoop/test4178.txt /t2 //上传本地文件到HDFS的T2

bin/hdfs dfs -get /t3/test2 /下载test2到本地根目录位置相反

bin/hdfs dfs -cat /t2/test2 //显示文件内容

bin/hadoop fs -put /hadoop/hadoop/test4178.txt /t2 //cp本地文件到HDFS的T2

bin/hdfs dfs -rmdir /t2//删除非空目录

bin/hdfs dfs -rm /t2/test2//删除文件,

bin/hdfs dfs –rm -r /t2//删除目录及其下所有文件,

bin/hadoop dfs -cat /ctom4178/test4178.txt

1、列出所有Hadoop Shell支持的命令

$ bin/hadoop fs -help

2、显示关于某个命令的详细信息

$ bin/hadoop fs -help command-name

3、用户可使用以下命令在指定路径下查看历史日志汇总

$ bin/hadoop job -history output-dir

这条命令会显示作业的细节信息,失败和终止的任务细节。

4、关于作业的更多细节,比如成功的任务,以及对每个任务的所做的尝试次数等可以用下面的命令查看

$ bin/hadoop job -history all output-dir

5、格式化一个新的分布式文件系统:

$ bin/hadoop namenode -format

6、在分配的NameNode上,运行下面的命令启动HDFS:

$ bin/start-dfs.sh

bin/start-dfs.sh脚本会参照NameNode上${HADOOP_CONF_DIR}/slaves文件的内容,在所有列出的slave上启动DataNode守护进程。

7、在分配的JobTracker上,运行下面的命令启动Map/Reduce:

$ bin/start-mapred.sh

bin/start-mapred.sh脚本会参照JobTracker上${HADOOP_CONF_DIR}/slaves文件的内容,在所有列出的slave上启动TaskTracker守护进程。

8、在分配的NameNode上,执行下面的命令停止HDFS:

$ bin/stop-dfs.sh

bin/stop-dfs.sh脚本会参照NameNode上${HADOOP_CONF_DIR}/slaves文件的内容,在所有列出的slave上停止DataNode守护进程。

9、在分配的JobTracker上,运行下面的命令停止Map/Reduce:

$ bin/stop-mapred.sh

bin/stop-mapred.sh脚本会参照JobTracker上${HADOOP_CONF_DIR}/slaves文件的内容,在所有列出的slave上停止TaskTracker守护进程。

DFSShell

10、创建一个名为/foodir 的目录

$ bin/hadoop dfs -mkdir /foodir

11、创建一个名为/foodir 的目录

$ bin/hadoop dfs -mkdir /foodir

12、查看名为/foodir/myfile.txt 的文件内容

$ bin/hadoop dfs -cat /foodir/myfile.txt

DFSAdmin

13、将集群置于安全模式

$ bin/hadoop dfsadmin -safemode enter

14、显示Datanode列表

$ bin/hadoop dfsadmin -report

15、使Datanode节点datanodename退役

$ bin/hadoop dfsadmin -decommission datanodename

16、bin/hadoop dfsadmin -help 命令能列出所有当前支持的命令。比如:

* -report:报告HDFS的基本统计信息。有些信息也可以在NameNode Web服务首页看到。

* -safemode:虽然通常并不需要,但是管理员的确可以手动让NameNode进入或离开安全模式。

* -finalizeUpgrade:删除上一次升级时制作的集群备份。

17、显式地将HDFS置于安全模式

$ bin/hadoop dfsadmin -safemode

18、在升级之前,管理员需要用(升级终结操作)命令删除存在的备份文件

$ bin/hadoop dfsadmin -finalizeUpgrade

19、能够知道是否需要对一个集群执行升级终结操作。

$ dfsadmin -upgradeProgress status

20、使用-upgrade选项运行新的版本

$ bin/start-dfs.sh -upgrade

21、如果需要退回到老版本,就必须停止集群并且部署老版本的Hadoop,用回滚选项启动集群

$ bin/start-dfs.h -rollback

22、下面的新命令或新选项是用于支持配额的。前两个是管理员命令。

* dfsadmin -setquota ...

把每个目录配额设为N。这个命令会在每个目录上尝试,如果N不是一个正的长整型数,目录不存在或是文件名,或者目录超过配额,则会产生错误报告。

* dfsadmin -clrquota ...

相关文档
最新文档