实验2 大数据分析平台中HDFS的使用

合集下载

实验3大数据分析平台中实现HDFS读写文件

实验3大数据分析平台中实现HDFS读写文件

实验3大数据分析平台中实现HDFS读写文件大数据分析平台中的Hadoop分布式文件系统(HDFS)是一个关键组件,用于存储和处理大规模数据集。

HDFS提供了高容错性、高可靠性和高性能的特性,使得它成为大数据存储和处理的理想选择。

在大数据分析平台中实现HDFS读写文件涉及以下步骤:1. HDFS环境搭建:首先需要在分析平台上搭建Hadoop环境,包括安装和配置Hadoop软件包、设置HDFS的文件系统路径和权限等。

这些步骤通常由系统管理员完成。

2. 编写读取程序:接下来,需要编写一个程序来读取HDFS中的文件。

这可以使用Java编程语言或其他支持Hadoop API的编程语言如Python或Scala来完成。

程序需要使用Hadoop的相关类和方法来连接到HDFS,打开并读取文件内容。

3.调用读取程序:将编写的读取程序部署到大数据分析平台中,并通过调用该程序来读取HDFS中的文件。

可以通过命令行、调度器或其他方式触发程序执行。

4. 编写写入程序:如果需要将数据写入HDFS,需要编写一个写入程序。

同样,可以使用Java、Python或其他支持Hadoop API的编程语言来完成。

程序需要将数据转换为适当的格式,并使用Hadoop的相关类和方法将数据写入HDFS中的目标路径。

5.调用写入程序:将编写的写入程序部署到大数据分析平台中,并通过调用该程序来将数据写入HDFS。

可以根据需要设置定期或条件触发写入操作。

在进行HDFS读写文件时,需要注意以下事项:1. 文件路径:使用HDFS时,需要使用HDFS文件路径而不是本地文件路径。

HDFS文件路径通常以"hdfs://"开头。

2.权限和用户身份:需要确保读取和写入程序有足够的权限来访问HDFS中的文件。

通常,需要指定正确的用户身份以及相应的权限设置。

3.文件格式:在进行文件读写时,需要考虑文件的格式。

HDFS支持多种文件格式,如文本文件、序列化文件和列式存储文件等。

hdfs操作方法

hdfs操作方法

hdfs操作方法Hadoop Distributed File System (HDFS)是Hadoop框架中的一部分,它是一个可伸缩、可靠的分布式文件系统。

HDFS设计用于处理大数据集,提供了高吞吐量的数据访问以及数据冗余和容错功能。

以下是HDFS的一些常见操作方法。

1.文件系统操作:- 创建目录:使用hadoop fs -mkdir命令来创建一个新的目录。

例如,hadoop fs -mkdir /user/mydirectory。

- 上传文件:使用hadoop fs -put命令将本地文件上传到HDFS中。

例如,hadoop fs -put myfile.txt /user/mydirectory。

- 列出文件/目录:使用hadoop fs -ls命令列出HDFS中的文件和目录。

例如,hadoop fs -ls /user/mydirectory。

- 删除文件/目录:使用hadoop fs -rm命令删除HDFS中的文件或目录。

例如,hadoop fs -rm /user/mydirectory/myfile.txt。

2.文件操作:- 读取文件:使用hadoop fs -cat命令来读取HDFS中的文件内容。

例如,hadoop fs -cat /user/mydirectory/myfile.txt。

- 复制文件:使用hadoop fs -cp命令在HDFS中复制文件。

例如,hadoop fs -cp /user/mydirectory/myfile.txt/user/newdirectory/myfile.txt。

- 移动文件:使用hadoop fs -mv命令将文件从一个目录移动到另一个目录。

例如,hadoop fs -mv /user/mydirectory/myfile.txt/user/newdirectory/myfile.txt。

- 修改文件名:使用hadoop fs -mv命令将文件改名。

大数据HDFS技术原理与实践

大数据HDFS技术原理与实践

大数据HDFS技术原理与实践Hadoop分布式文件系统(Hadoop Distributed File System,简称HDFS)是Hadoop的一个组成部分,是大数据处理的核心技术之一、HDFS 是为了能够在低成本的硬件上存储大规模数据而设计的,它提供了高可靠性、高容错性以及高可扩展性的存储解决方案。

HDFS的设计理念是将大文件切成多个小块,每个块都会被复制到多个计算机上,以确保数据的可靠性。

这些块分散在不同的计算机节点上,构成了一个分布式的文件系统。

Hadoop集群上的每个计算机节点都有一个HDFS数据节点(DataNode),负责向HDFS中存储和检索数据。

此外,还有一个HDFS命名节点(NameNode)负责管理整个HDFS的元数据。

HDFS的核心优势之一是高可靠性和高容错性。

HDFS将每个数据块复制到不同的数据节点上,通常是三个副本。

如果一些节点发生故障,HDFS 会从其他节点上的副本进行数据恢复,确保不会丢失数据。

此外,HDFS 还支持检测和修复数据块的错误,以保证数据的完整性。

HDFS的另一个优势是高可扩展性。

HDFS可以非常容易地扩展到成百上千台计算机节点,可以管理非常大规模的数据集。

HDFS通过水平分割和并行处理的方式充分利用集群中所有计算机节点的处理能力,能够高效地处理大数据。

HDFS的工作原理如下:当用户向HDFS写入数据时,HDFS首先将数据切分成固定大小的块,通常是64MB或128MB。

然后,HDFS通过传输协议将每个数据块复制到不同的数据节点上。

数据节点将数据块存储在本地硬盘上,并向命名节点报告存储位置。

存储位置信息将被记录在命名节点的元数据中,以便后续读取时进行查找。

当用户读取数据时,HDFS的工作方式与写入类似。

用户向命名节点发出读取请求,命名节点返回存储块的位置信息。

然后用户直接从数据节点读取数据。

如果数据节点不可用,HDFS会从其他副本中选择一个可用的节点读取数据。

HDFS基本操作

HDFS基本操作

HDFS基本操作HDFS(Hadoop Distributed File System)是Hadoop生态系统中的一个关键组件,用于在大规模集群上存储和处理大数据集。

HDFS采用分布式文件存储的方式,将大文件切分成多个块,并分散存储在多个计算节点上,从而实现高容错性和高吞吐量的数据存储。

在使用HDFS进行文件操作时,可以通过命令行工具或者API进行操作。

下面是HDFS的一些基本操作:1. 查看文件系统状态:使用"hdfs dfsadmin -report"命令可以查看HDFS的整体状态,包括存储容量、副本数量、节点状态等。

2. 创建目录:使用"hdfs dfs -mkdir"命令可以在HDFS中创建新目录。

例如,可以使用"hdfs dfs -mkdir /data"命令创建一个名为"data"的目录。

3. 上传文件:使用"hdfs dfs -put"命令可以将本地文件上传到HDFS中。

例如,可以使用"hdfs dfs -put local_file hdfs_path"命令将名为"local_file"的本地文件上传到"HDFS_path"路径下。

5. 复制文件:使用"hdfs dfs -cp"命令可以复制HDFS中的文件。

例如,可以使用"hdfs dfs -cp source_file target_file"命令将"source_file"文件复制到"target_file"。

6. 移动文件:使用"hdfs dfs -mv"命令可以移动HDFS中的文件。

例如,可以使用"hdfs dfs -mv source_file target_file"命令将"source_file"文件移动到"target_file"。

大数据系统及应用-hdfs实训

大数据系统及应用-hdfs实训

大数据系统及应用-hdfs实训
对于大数据系统及应用的HDFS实训,主要包括以下内容:
1. HDFS介绍:对HDFS的基本概念、特点和优缺点进行介绍,让学生了解HDFS 在大数据系统中的地位和作用。

2. Hadoop环境搭建:通过安装Hadoop集群来了解Hadoop的基本架构和配置信息,让学生掌握Hadoop的基本操作和管理技能。

3. HDFS文件系统操作:学习使用命令行和图形化工具进行HDFS文件系统的上传、下载、复制、删除等基本操作,掌握HDFS数据存储和管理技能。

4. HDFS数据分析实战:通过实际案例展示如何利用HDFS进行数据分析和挖掘,让学生了解数据分析中的相关算法和工具,提高数据处理和分析能力。

5. HDFS性能优化:了解HDFS的优化策略和常见问题,并通过实践实现HDFS 的性能调优和优化,提高系统的稳定性和效率。

通过以上实训内容,学生可以掌握HDFS的基本知识和技能,了解大数据系统的基本框架和应用场景,提高数据处理和分析能力,为以后在大数据领域的工作打下坚实的基础。

大数据分析之HDFS文件系统的操作

大数据分析之HDFS文件系统的操作

HDFS文件系统的操作HDFS 是一个分布式文件系统,就像任何其它文件系统,它允许用户使用shell 命令操作文件系统。

接下来我们结合之前搭建好的分布式集群通过HDFS的shell命令行交互来进一步认识HDFS,并演示怎样使用HDFS shell 命令。

值得注意的是,HDFS 命令大多与Unix 命令有一对一的关系。

首先打开我们的master、slave1、slave2三台虚拟机,然后在master的终端中输入如下命令来启动HDFS,启动过程如下图所示,启动完成后执行命令jps查看进程是否启动创建路径mkdir如果你的HDFS home 目录不存在,请先创建它并修改权限。

创建HDFS home 目录的命令如下:上面创建的/user/hduser 相当于HDFS 中的用户当前目录,后面可以看到复制文件时无需指定绝对目录。

查看目录ls运行下面的命令,列出HDFS home 目录的内容。

读取文档catHDFS 文件系统有一个/作为根目录。

如下面的命令是读取/user/hduser/fib.csv 文件并打印到屏幕上,就像Unix 系统中的cat 命令:更改文件属性chmod chownHDFS中针对文件和目录的权限模式与传统操作系统类似,一共提供三类权限模式:只读权限(r)、写入权限(w)、可执行权限(x)。

读取文件或列出目录内容时需要只读权限,写入一个文件或是在一个目录上新建及删除文件、目录需要写入权限。

不过可执行权限可以忽略,因为你不可能在hdfs 上执行一个文件,这是与一般操作系统的文件系统是有区别的地方。

修改HDFS home目录权限的命令如下:上传文档运行下面的命令,在你的HDFS home 目录中创建一个新的input 目录:运行如下的命令来列出在HDFS 中新创建的目录的内容:运行如下的命令,将本地readme.txt 文件拷贝到input 目录中:运行如下的命令,将本地文件夹wc-input 上传到HDFS 文件系统:运行如下的命令,列出input 目录:从键盘读取输入到hdfs命令格式如下:从键盘读取输入到hdfs file 中,按Ctrl+D 结束输入,hdfs file不能存在,否则命令不会执行,将本地文件移至hdfs moveFromLocal与put 相类似,命令执行后源文件local src 被删除,也可以从从键盘读取输入到hdfs file 中copyFromLocal与put 相类似,也可以从从键盘读取输入到hdfs file 中.getlocal file 不能和hdfs file 名字不能相同,否则会提示文件已存在,没有重名的文件会复制到本地拷贝多个文件或目录到本地时本地要为文件夹路径注意:如果用户不是root,local 路径要为用户文件夹下的路径,否则会出现权限问题,copyToLocal与get 相类似rm删除文件或目录cp目标文件不能存在,否则命令不能执行,相当于给文件重命名并保存,源文件还存在目标文件夹要存在,否则命令不能执行mv目标文件不能存在,否则命令不能执行,相当于给文件重命名并保存,源文件不存在源路径有多个时,目标路径必须为目录,且必须存在。

大数据技术基础实验报告-HDFS常用操作命令

大数据技术基础实验报告-HDFS常用操作命令实验内容:1. 开启HDFSstart-dfs.sh2. 查看在终端中我们操作HDFS的命令hdfs dfs3.命令行客户端支持的命令参数hadoop fs [-appendToFile <localsrc> ... <dst>][-cat [-ignoreCrc] <src> ...][-checksum <src> ...][-chgrp [-R] GROUP PATH...][-chmod [-R] <MODE[,MODE]... | OCTALMODE> PATH...][-chown [-R] [OWNER][:[GROUP]] PATH...][-copyFromLocal [-f] [-p] <localsrc> ... <dst>][-copyToLocal [-p] [-ignoreCrc] [-crc] <src> ... <localdst>][-count [-q] <path> ...][-cp [-f] [-p] <src> ... <dst>][-createSnapshot <snapshotDir> [<snapshotName>]][-deleteSnapshot <snapshotDir> <snapshotName>][-df [-h] [<path> ...]][-du [-s] [-h] <path> ...][-expunge][-get [-p] [-ignoreCrc] [-crc] <src> ... <localdst>][-getfacl [-R] <path>][-getmerge [-nl] <src> <localdst>][-help [cmd ...]][-ls [-d] [-h] [-R] [<path> ...]][-mkdir [-p] <path> ...][-moveFromLocal <localsrc> ... <dst>][-moveToLocal <src> <localdst>][-mv <src> ... <dst>][-put [-f] [-p] <localsrc> ... <dst>][-renameSnapshot <snapshotDir> <oldName> <newName>][-rm [-f] [-r|-R] [-skipTrash] <src> ...][-rmdir [--ignore-fail-on-non-empty] <dir> ...][-setfacl [-R] [{-b|-k} {-m|-x <acl_spec>} <path>]|[--set <acl_spec> <path>]] [-setrep [-R] [-w] <rep> <path> ...][-stat [format] <path> ...][-tail [-f] <file>][-test -[defsz] <path>][-text [-ignoreCrc] <src> ...][-touchz <path> ...][-usage [cmd ...]]图中显示很多命令选项信息,以上截图补全,下面的表格能够完整的列出了支持的命令选项。

实验2大数据分析平台中HDFS的使用

实验2大数据分析平台中HDFS的使用大数据分析平台中的HDFS(Hadoop Distributed File System)是一个容错性高、高可用性的分布式文件系统。

它是大数据处理框架Hadoop的核心组成部分之一,被设计用于存储和管理海量数据。

HDFS的使用对于大数据分析平台的性能和可靠性至关重要。

首先,HDFS通过分布式存储和分布式处理的方式来处理大数据。

它将大文件分割成多个数据块,并存储在不同的计算节点上,实现了数据的分布和并行处理。

这种方式可以大大提高数据处理的速度和效率,同时也可以有效地利用集群中的计算资源。

其次,HDFS具有高可用性和容错性。

它通过数据冗余和自动备份的方式,确保了数据的可靠性和持久性。

当一些节点出现故障或数据损坏时,HDFS可以自动地从备份中恢复数据,实现了故障恢复和容错机制。

这种设计保证了数据的安全性和稳定性。

另外,HDFS还支持横向扩展。

在大数据分析平台中,数据量通常非常庞大,因此需要一个具有良好可扩展性的系统来满足不断增长的需求。

HDFS通过增加计算节点来扩展存储容量和处理能力,可以轻松地应对大规模数据的处理和存储需求。

此外,HDFS还具有高效的数据访问和管理能力。

它通过提供高度抽象的文件系统接口,简化了对大数据的操作和管理。

开发人员可以通过使用HDFS提供的API来进行文件读写、数据读取和管理等操作,无需关心底层的分布式存储和处理细节。

同时,HDFS还支持数据的压缩和编码,可以有效地降低存储和传输的成本。

最后,HDFS还具有安全性和权限控制的功能。

在大数据分析平台中,数据的安全性和隐私保护至关重要。

HDFS通过用户和组的身份验证来保护数据的访问权限,只有授权的用户才能读取和修改数据。

此外,HDFS还提供了数据加密和传输加密的功能,可以保障数据的安全传输和存储。

总的来说,HDFS的使用对于大数据分析平台非常重要。

它通过分布式存储和处理的方式,提供了高性能、高可靠性和高扩展性的数据存储和管理功能。

大数据学习之HDFS简介原理及基本使用

⼤数据学习之HDFS简介原理及基本使⽤1.HDFS前⾔设计思想分⽽治之:将⼤⽂件、⼤批量⽂件,分布式存放在⼤量服务器上,以便于采取分⽽治之的⽅式对海量数据进⾏运算分析;在⼤数据系统中作⽤:为各类分布式运算框架(如:mapreduce,spark,tez,……)提供数据存储服务重点概念:⽂件切块,副本存放,元数据2.HDFS的概念和特性Hadoop Distributed File System⾸先,它是⼀个⽂件系统,⽤于存储⽂件,通过统⼀的命名空间——⽬录树来定位⽂件其次,它是分布式的,由很多服务器联合起来实现其功能,集群中的服务器有各⾃的⾓⾊;重要特性如下:(1)HDFS中的⽂件在物理上是分块存储(block),块的⼤⼩可以通过配置参数( dfs.blocksize)来规定,默认⼤⼩在hadoop2.x版本中是128M,⽼版本中是64M(2)HDFS⽂件系统会给客户端提供⼀个统⼀的抽象⽬录树,客户端通过路径来访问⽂件,形如:hdfs://namenode:port/dir-a/dir-b/dir-c/file.data(3)⽬录结构及⽂件分块信息(元数据)的管理由namenode节点承担——namenode是HDFS集群主节点,负责维护整个hdfs⽂件系统的⽬录树,以及每⼀个路径(⽂件)所对应的block块信息(block的id,及所在的datanode服务器)(4)⽂件的各个block的存储管理由datanode节点承担---- datanode是HDFS集群从节点,每⼀个block都可以在多个datanode上存储多个副本(副本数量也可以通过参数设置dfs.replication)(5)HDFS是设计成适应⼀次写⼊,多次读出的场景,且不⽀持⽂件的修改(注:适合⽤来做数据分析,并不适合⽤来做⽹盘应⽤,因为,不便修改,延迟⼤,⽹络开销⼤,成本太⾼)3. HDFS的shell(命令⾏客户端)操作3.1 HDFS命令⾏客户端使⽤HDFS提供shell命令⾏客户端,使⽤⽅法如下:3.2 命令⾏客户端⽀持的命令参数[-appendToFile <localsrc> ... <dst>][-cat [-ignoreCrc] <src> ...][-checksum <src> ...][-chgrp [-R] GROUP PATH...][-chmod [-R] <MODE[,MODE]... | OCTALMODE> PATH...][-chown [-R] [OWNER][:[GROUP]] PATH...][-copyFromLocal [-f] [-p] <localsrc> ... <dst>][-copyToLocal [-p] [-ignoreCrc] [-crc] <src> ... <localdst>][-count [-q] <path> ...][-cp [-f] [-p] <src> ... <dst>][-createSnapshot <snapshotDir> [<snapshotName>]][-deleteSnapshot <snapshotDir> <snapshotName>][-df [-h] [<path> ...]][-du [-s] [-h] <path> ...][-expunge][-get [-p] [-ignoreCrc] [-crc] <src> ... <localdst>][-getfacl [-R] <path>][-getmerge [-nl] <src> <localdst>][-help [cmd ...]][-ls [-d] [-h] [-R] [<path> ...]][-mkdir [-p] <path> ...][-moveFromLocal <localsrc> ... <dst>][-moveToLocal <src> <localdst>][-mv <src> ... <dst>][-put [-f] [-p] <localsrc> ... <dst>][-renameSnapshot <snapshotDir> <oldName> <newName>][-rm [-f] [-r|-R] [-skipTrash] <src> ...][-rmdir [--ignore-fail-on-non-empty] <dir> ...][-setfacl [-R] [{-b|-k} {-m|-x <acl_spec>} <path>]|[--set <acl_spec> <path>]] [-setrep [-R] [-w] <rep> <path> ...][-stat [format] <path> ...][-tail [-f] <file>][-test -[defsz] <path>][-text [-ignoreCrc] <src> ...][-touchz <path> ...][-usage [cmd ...]]3.2 常⽤命令参数介绍Shell客户端启动 Hadoop fs hdfs dfsShell客户端启动 Hadoop fs hdfs dfs-help功能:输出这个命令参数⼿册-ls功能:显⽰⽬录信息⽰例: hadoop fs -ls hdfs://hadoop-server01:9000/备注:这些参数中,所有的hdfs路径都可以简写-->hadoop fs -ls / 等同于上⼀条命令的效果-mkdir功能:在hdfs上创建⽬录⽰例:hadoop fs -mkdir -p /aaa/bbb/cc/dd-moveFromLocal功能:从本地剪切粘贴到hdfs⽰例:hadoop fs - moveFromLocal /home/hadoop/a.txt /aaa/bbb/cc/dd-moveToLocal功能:从hdfs剪切粘贴到本地⽰例:hadoop fs - moveToLocal /aaa/bbb/cc/dd /home/hadoop/a.txt--appendToFile//存活的节点数⼤于等于副本数量(3)功能:追加⼀个⽂件到已经存在的⽂件末尾⽰例:hadoop fs -appendToFile ./hello.txt hdfs://hadoop-server01:9000/hello.txt 可以简写为:Hadoop fs -appendToFile ./hello.txt /hello.txt-cat功能:显⽰⽂件内容⽰例:hadoop fs -cat /hello.txt-tail功能:显⽰⼀个⽂件的末尾⽰例:hadoop fs -tail /weblog/access_log.1-text功能:以字符形式打印⼀个⽂件的内容⽰例:hadoop fs -text /weblog/access_log.1-chgrp-chmod-chown功能:linux⽂件系统中的⽤法⼀样,对⽂件所属权限⽰例:hadoop fs -chmod 666 /hello.txthadoop fs -chown someuser:somegrp /hello.txt-copyFromLocal-copyFromLocal功能:从本地⽂件系统中拷贝⽂件到hdfs路径去⽰例:hadoop fs -copyFromLocal ./jdk.tar.gz /aaa/-copyToLocal功能:从hdfs拷贝到本地⽰例:hadoop fs -copyToLocal /aaa/jdk.tar.gz-cp功能:从hdfs的⼀个路径拷贝hdfs的另⼀个路径⽰例: hadoop fs -cp /aaa/jdk.tar.gz /bbb/jdk.tar.gz.2-mv功能:在hdfs⽬录中移动⽂件⽰例: hadoop fs -mv /aaa/jdk.tar.gz /-get功能:等同于copyToLocal,就是从hdfs下载⽂件到本地⽰例:hadoop fs -get /aaa/jdk.tar.gz-getmerge功能:合并下载多个⽂件⽰例:⽐如hdfs的⽬录 /aaa/下有多个⽂件:log.1, log.2,log.3,...hadoop fs -getmerge /aaa/log.* ./log.sum-put功能:等同于copyFromLocal⽰例:hadoop fs -put /aaa/jdk.tar.gz /bbb/jdk.tar.gz.2-rm功能:删除⽂件或⽂件夹⽰例:hadoop fs -rm -r /aaa/bbb/-rmdir功能:删除空⽬录⽰例:hadoop fs -rmdir /aaa/bbb/ccc-df功能:统计⽂件系统的可⽤空间信息⽰例:hadoop fs -df -h /-du功能:统计⽂件夹的⼤⼩信息⽰例:hadoop fs -du -s -h /aaa/*-count功能:统计⼀个指定⽬录下的⽂件节点数量⽰例:hadoop fs -count /aaa/-setrep功能:设置hdfs中⽂件的副本数量⽰例:hadoop fs -setrep 3 /aaa/jdk.tar.gz4. hdfs的⼯作机制(⼯作机制的学习主要是为加深对分布式系统的理解,以及增强遇到各种问题时的分析解决能⼒,形成⼀定的集群运维能⼒)注:很多不是真正理解hadoop技术体系的⼈会常常觉得HDFS可⽤于⽹盘类应⽤,但实际并⾮如此。

熟悉常用的HDFS操作实验报告

熟悉常用的HDFS操作实验报告HDFS 是一个非常方便的分布式文件系统,它将硬盘、服务器甚至云端完美结合在了一起。

通过 HDFS 可以很容易地管理和访问各种不同类型的数据资源(比如:文档、图片等),并且不需要用户关心物理存储空间或者主机操作系统,这对于用户来说简直就是太方便了!那么,我们该怎样熟练地掌握 HDFS 呢?下面我就给大家介绍几个 HDFS 的使用技巧吧!操作实验开始,我首先要做的事情是先登录进入云端的数据库。

当然,如果没有账号密码也能够进去,只是会发生数据错误而已。

我输入了一次密码后成功登陆到了数据库,进行数据库的创建工作。

第二步,我要重新打开数据库的属性,选择新建数据库。

这时候,弹出了新建数据库向导,我点击了下一步。

第三步,接着让我设置好文件存放位置。

这里我建议将文件放在指定目录,因为每次修改后再保存都要去更新。

默认是在“ localhost”的目录,这个就随你自己喜欢啦!接着还要设置好目录文件的大小,以及文件名称等信息。

在这里,推荐把所有的目录文件名称都采用相同的命名规则。

确认无误后,点击下一步继续创建。

最后,你可以输入你想要创建的数据库名字了。

我写了个test. dbf 的文件,点击下一步进入到数据库配置页面。

在这里,我为数据库的文件命名为 test1,并把它保存在我建立的 test 目录中。

现在的数据库就创建完毕了,接下来就是新建文件的时刻了。

第四步,在这个界面里我们点击了新建。

第五步,在这个界面里我们点击了新建文件。

然后,我们输入了文件名,接着点击了下一步。

第六步,弹出了一个文件存放路径提示框。

默认是在“ c: users< userId>*”下,我可以根据需求修改存放路径。

这里可以设置在“root default directory”或“{ f:} webfs/ test/2”,你觉得哪个方便就按照你的意愿设置即可。

第七步,我们填写好名称之后,点击下一步继续创建。

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

1、HDFS 预备知识
2、HDFS 读写数据的过程
(一) 实验目的
1.理解HDFS 在Hadoop 体系结构中的角色;
2.理解HDFS 存在的原因;
3.理解HDFS 体系架构;
4.理解HDFS 读写数据过程;
5.熟练使用HDFS 常用的Shell 命令。

(三) 实验环境
1.在HDFS 中进行目录操作;
2.在HDFS 中进行文件操作;
3.从本机中上传文件到HDFS ;
4.从HDFS 下载文件到本机。

(四) 实验步骤
(二) 实验要求
1.大数据分析实验系统(FSDP );
2.CentOS 6.7;
3. Hadoop 2.7.1。

分布式文件系统(Distributed File System )是指文件系统管理的物理存储资源不一定直接连接在本地节点,而是通过计算机网络与节点相连。

HDFS (Hadoop 分布式文件系统,Hadoop Distributed File System )是一种适合运行在通用硬件上的分布式文件系统,它是一个高度容错性的系统,适合部署在廉价的机器上。

HDFS 能提供高吞吐量的数据访问,非常适合大规模数据集上的应用。

HDFS 为大数据分析平台的其他所有组件提供了最基本的存储功能。

它具有高容错、高可靠、可扩展、高吞吐率等特征,为大数据存储和处理提供了强大的底层存储架构。

HDFS 采用主/从(master/slave )式体系结构,从最终用户的角度来看,它就像传统的文件系统,可通过目录路径对文件执行增删改查操作。

由于其分布式存储的性质,HDFS 拥有一个NameNode 和一些DataNode ,NameNode 管理文件系统的元数据,DataNode 存储实际的数据。

1.HDFS 预备知识;
2.HDFS 读写数据的过程;
3.HDFS 的目录和文件操作。

HDFS 提供高吞吐量应用程序访问功能,适合带有大型数据集的场景,具体包括: •数据密集型并行计算:数据量大,但是计算相对简单的并行处理,如大规模Web 信息搜索;

计算密集型并行计算:数据量相对不是很大,但是计算较为复杂的并行处理,如3D 建模与渲染、气象预报、科学计算等;

数据密集型与计算密集型混合的计算,如3D 电影渲染等。

HDFS 读数据的过程
HDFS 写数据的过程
普通文件系统主要用于随机读写以及与用户进行交互,而HDFS 则是为了满足批量数据处理的要求而设计的,因此为了提高数据吞吐率,HDFS 放松了一些POSIX 的要求,从而能够以流方式来访问文件系统数据。

[test@fsmanager~]$ hadoop fs –mkdir /user/test [test@fsmanager ~]$ hadoop fs -ls /user/test [test@fsmanager ~]$
[test@fsmanager ~]$ hadoop fs -mkdir text ab [test@fsmanager ~]$ hadoop fs -ls /user/test Found 2 items
drwxr-xr-x - test hdfs 0 2018-04-09 11:40 /user/test/text
drwxr-xr-x - test hdfs 0 2018-04-09 11:40 /user/test/ab
[test@fsmanager ~]$
[test@fsmanager ~]$ cd ~
[test@fsmanager ~]$ hadoop fs -put .bashrc text
[test@fsmanager ~]$ hadoop fs -ls text Found 1 items
-rw-r--r-- 2 test hdfs 124 2018-04-09 11:45 text/.bashrc
[test@fsmanager ~]$
[test@fsmanager ~]$hadoop fs -rm text/.bashrc 18/04/09 11:47:17 INFO fs.TrashPolicyDefault: Namenode trash configuration: Deletion interval = 0 minutes, Emptier interval = 0 minutes. Deleted text/.bashrc
[test@fsmanager ~]$ hadoop fs -ls text [test@fsmanager ~]$ 命令:hadoop fs -text filepath 例如:
[test@fsmanager ~]$ hadoop fs -put .bashrc . [test@fsmanager ~]$ hadoop fs -text ./.bashrc # .bashrc
# Source global definitions fi
# User specific aliases and functions
[test@fsmanager ~]$ hadoop fs -mkdir text123 [test@fsmanager ~]$ hadoop fs -ls Found 2 items
drwxr-xr-x - test hdfs 0 2018-04-09 11:47 text drwxr-xr-x - test hdfs 0 2018-04-09 11:51 text123
[test@fsmanager ~]$ hadoop fs -rm -r text123 18/04/09 11:51:55 INFO fs.TrashPolicyDefault: Namenode trash configuration: Deletion interval = 0 minutes, Emptier interval = 0 minutes. Deleted text123
[test@fsmanager ~]$ hadoop fs -ls Found 1 items
drwxr-xr-x - test hdfs 0 2018-04-09 11:47 text 命令格式:hadoop fs -mv 源文件路径 目标文件路径 [test@fsmanager ~]$ hadoop fs -ls text text1 Found 1 items
drwxr-xr-x - test hdfs 0 2018-04-09 11:54 text/hello Found 1 items
drwxr-xr-x - test hdfs 0 2018-04-09 11:55 text1/hello1
[test@fsmanager ~]$ hadoop fs -mv text/hello text1
[test@fsmanager ~]$ hadoop fs -mv text1/hello1 text
[test@fsmanager ~]$ hadoop fs -ls text text1 Found 1 items
drwxr-xr-x - test hdfs 0 2018-04-09 11:55 text/hello1 Found 1 items
drwxr-xr-x - test hdfs 0 2018-04-09 11:54 text1/hello
(1)在HDFS 中创建目录
(2)在此用户目录下创建text 、ab 文件夹,并查看文件列表
(3)将~/.bashrc 文件上传到HDFS 的text 文件夹,并查看test
(5)删除HDFS 中的文件. bashrc
(6)在HDFS 中查看文件内容
(7)在HDFS 中创建并删除目录test123
(8)查看HDFS 中文件内容
HDFS 在使用过程中有以下限制: •
HDFS 不适合大量小文件的存储。

由于namenode 将文件系统的元数据存放在内存中,因此存储的文件数目受限于NameNode 的内存大小;
•HDFS 适用于高吞吐量,而不适用于低时间延迟访问的应用场景;

HDFS 流式读取的方式,不适合多用户写入一个文件(一个文件同时只能被一个客户端写),以及任意位置写入(不支持随机写);

HDFS 更加适合一次写入,读取多次的应用场景。

3、HDFS 的目录和文件操作
[test@fsmanager ~]$ hadoop fs -get text ./ 18/04/09 11:46:23 WARN hdfs.DFSClient: DFSInputStream has been closed already [test@fsmanager ~]$ ls abc a.tar text [test@fsmanager ~]$
(4)将HDFS 文件夹text 下载到本地
(9)查看HDFS 文件或目录占用空间
[test@fsmanager ~]$ hadoop fs -du -h /user/test 124 /user/test/.bashrc 0 /user/test/text。

相关文档
最新文档