面试必过——50个最受欢迎的Hadoop面试问题

合集下载

hadoop面试题总结

hadoop面试题总结

hadoop⾯试题总结1、hadoop常⽤端⼝号hadoop2.x Hadoop3.x访问HDFS端⼝50070 9870访问MR执⾏情况端⼝8088 8088历史服务器19888 19888客户端访问集群端⼝9000 80202、hadoop集群搭建hadoop搭建流程概述:(1)准备三个客户端,master,node1,node2(2)安装jdk 配置免密 ssh-keygen -t rsa 分发秘钥 ssh-copy-id master ssh-copy-id node1 ssh-copy-id node2(3)配置环境变量 source ⼀下(4)主要有 hadoop环境配置⽂件:hadoop-env.sh hadoop核⼼配置⽂件 core-site.xml yarn配置⽂件 yarn-site.xml mapreduce核⼼配置⽂件 mapred-site.xml hdfs配置⽂件 hdfs-site.xml(5)分发集群⽂件 scp -r /usr/local....... 格式化 hdfs namenode-format 启动集群 start-all.sh 访问hdfs页⾯查看是否搭建成功3、环境配置⽂件主要内容(1)hadoop-env.sh : Hadoop 环境配置⽂件vim hadoop-env.sh修改JAVA_HOMEexport JAVA_HOME=/usr/local/soft/jdk1.8.0_171(2)core-site.xml : hadoop核⼼配置⽂件vim core-site.xml在configuration中间增加以下内容<property><name>fs.defaultFS</name><value>hdfs://master:9000</value></property><property><name>hadoop.tmp.dir</name><value>/usr/local/soft/hadoop-2.7.6/tmp</value></property><property><name>fs.trash.interval</name><value>1440</value></property>(3)hdfs-site.xml : hdfs配置⽂件vim hdfs-site.xml在configuration中间增加以下内容<property><name>dfs.replication</name><value>1</value></property><property><name>dfs.permissions</name><value>false</value></property>(4)yarn-site.xml: yarn配置⽂件vim yarn-site.xml在configuration中间增加以下内容<property><name>yarn.resourcemanager.hostname</name><value>master</value></property><property><name>yarn.nodemanager.aux-services</name><value>mapreduce_shuffle</value></property><property><name>yarn.log-aggregation-enable</name><value>true</value></property><property><name>yarn.log-aggregation.retain-seconds</name><value>604800</value></property><property><name>yarn.nodemanager.resource.memory-mb</name><value>20480</value></property><property><name>yarn.scheduler.minimum-allocation-mb</name><value>2048</value></property><property><name>yarn.nodemanager.vmem-pmem-ratio</name><value>2.1</value></property>(5)mapred-site.xml: mapreduce配置⽂件重命名mv mapred-site.xml.template mapred-site.xmlvim mapred-site.xml在configuration中间增加以下内容<property><name></name><value>yarn</value></property><property><name>mapreduce.jobhistory.address</name><value>master:10020</value></property><property><name>mapreduce.jobhistory.webapp.address</name><value>master:19888</value></property>3、hdfs读写流程写流程:1)客户端向namenode请求上传⽂件,namenode检查⽬标⽂件是否已存在,⽗⽬录是否存在。

hadoop常见面试问题

hadoop常见面试问题

hadoop常见面试问题
以下是一些Hadoop常见的面试问题:
1. Hadoop是什么?它在大数据领域中的作用是什么?
2. Hadoop的核心组件有哪些?它们各自的作用是什么?
3. HDFS是什么?它有哪些特点和优势?
4. MapReduce是什么?它是如何工作的?
5. YARN是什么?它在Hadoop中的作用是什么?
6. 在Hadoop中如何处理数据倾斜?有哪些常见的数据倾斜问题需要避免?
7. Hadoop集群的部署和配置需要注意哪些问题?
8. 如何优化Hadoop集群的性能?有哪些常见的性能调优方法?
9. 在Hadoop中如何进行数据迁移?有哪些常见的迁移策略?
10. 如何进行Hadoop的安全性配置和管理?有哪些常见的安全措施需要采取?
11. Hadoop和Spark的区别和联系是什么?在什么情况下应该选择Hadoop或Spark?
12. 在Hadoop中如何进行数据清洗和预处理?有哪些常用的工具和库可以使用?
13. 如何使用Hadoop进行机器学习和数据挖掘?有哪些常见的算法和应用场景?
14. Hadoop的版本演进和兼容性问题需要注意哪些方面?
15. 你如何在Hadoop上进行大数据实时流处理?有哪些常用的流处理框架可以选择和使用?。

Hadoop最全面试题整理(附目录)

Hadoop最全面试题整理(附目录)

Hadoop面试题目及答案(附目录)选择题1.下面哪个程序负责HDFS 数据存储。

a)NameNode b)Jobtracker c)Datanode d)secondaryNameNode e)tasktracker答案C datanode2. HDfS 中的block 默认保存几份?a)3 份b)2 份c)1 份d)不确定答案A 默认3 份3.下列哪个程序通常与NameNode 在一个节点启动?a)SecondaryNameNode b)DataNode c)TaskTracker d)Jobtracker答案D分析:hadoop 的集群是基于master/slave 模式,namenode 和jobtracker 属于master,datanode 和tasktracker 属于slave,master 只有一个,而slave 有多个SecondaryNameNode 内存需求和NameNode 在一个数量级上,所以通常secondaryNameNode(运行在单独的物理机器上)和NameNode 运行在不同的机器上。

JobTracker 和TaskTrackerJobTracker 对应于NameNode,TaskTracker 对应于DataNode,DataNode 和NameNode 是针对数据存放来而言的,JobTracker 和TaskTracker 是对于MapReduce 执行而言的。

mapreduce 中几个主要概念,mapreduce 整体上可以分为这么几条执行线索:jobclient,JobTracker 与TaskTracker。

1、JobClient 会在用户端通过JobClient 类将应用已经配置参数打包成jar 文件存储到hdfs,并把路径提交到Jobtracker,然后由JobTracker 创建每一个Task(即MapTask 和ReduceTask)并将它们分发到各个TaskTracker 服务中去执行。

Hadoop 100道面试题及答案解析

Hadoop 100道面试题及答案解析

3.6误)3.7Hadoop支持数据的随机读写。

(错) (8)NameNode负责管理metadata,client端每次读写请求,它都会从磁盘中3.8读取或则会写入metadata信息并反馈client端。

(错误) (8)NameNode本地磁盘保存了Block的位置信息。

(个人认为正确,欢迎提出其它意见) (9)3.93.10 3.11DataNode通过长连接与NameNode保持通信。

(有分歧) (9)Hadoop自身具有严格的权限管理和安全措施保障集群正常运行。

(错误)93.12 3.13 3.14Slave节点要存储数据,所以它的磁盘越大越好。

(错误) (9)hadoop dfsadmin–report命令用于检测HDFS损坏块。

(错误) (9)Hadoop默认调度器策略为FIFO(正确) (9)100道常见Hadoop面试题及答案解析目录1单选题 (5)1.1 1.2 1.3 1.4 1.5 1.6 1.7下面哪个程序负责HDFS数据存储。

(5)HDfS中的block默认保存几份? (5)下列哪个程序通常与NameNode在一个节点启动? (5)Hadoop作者 (6)HDFS默认Block Size (6)下列哪项通常是集群的最主要瓶颈: (6)关于SecondaryNameNode哪项是正确的? (6)2 3多选题 (7)2.12.22.32.42.5下列哪项可以作为集群的管理? (7)配置机架感知的下面哪项正确: (7)Client端上传文件的时候下列哪项正确? (7)下列哪个是Hadoop运行的模式: (7)Cloudera提供哪几种安装CDH的方法? (7)判断题 (8)3.13.23.3Ganglia不仅可以进行监控,也可以进行告警。

(正确) (8)Block Size是不可以修改的。

(错误) (8)Nagios不可以监控Hadoop集群,因为它不提供Hadoop支持。

大数据人才面试题目及答案

大数据人才面试题目及答案

大数据人才面试题目及答案随着大数据技术的迅猛发展,对于大数据人才的需求也越来越高。

而在求职过程中,面试是一个非常重要的环节,通过面试不仅可以了解候选人的专业知识和能力,还能对其适应能力和解决问题的能力进行评估。

以下是一些常见的大数据人才面试题目及其答案,希望能为您准备面试提供帮助。

1. 介绍一下大数据的概念和特点。

大数据是指规模庞大、结构复杂、难以通过传统的数据处理方法获取、存储、管理和分析的数据集合。

其特点包括以下几个方面:- 体量大:大数据的数据量很大,以TB、PB、EB为单位。

- 多样性:大数据来源多样,包括结构化数据、半结构化数据和非结构化数据。

- 时效性:大数据的生成速度快,需要及时处理和分析。

- 价值密度低:大数据中包含了很多无效信息,需要通过技术手段进行提取和筛选。

2. 请介绍一下Hadoop和Spark,它们在大数据处理中的作用是什么?Hadoop是一个分布式的计算框架,主要用于存储和处理大规模数据集。

它的核心组件包括HDFS(分布式文件系统)和MapReduce(分布式计算)。

Hadoop借助分布式存储和计算的特点,可以快速处理大规模的数据,适用于批处理场景。

Spark是一个快速、通用的大数据处理引擎,它提供了内存计算的能力,能够加速数据处理的速度。

相比于Hadoop的MapReduce模型,Spark使用了更高效的计算模型,可以在内存中进行数据操作,大大提高了处理效率。

Spark还提供了丰富的API,支持多种编程语言,并且支持实时流式数据处理。

3. 请说明大数据处理中的数据清洗和数据融合的过程。

数据清洗是指对原始数据进行筛选、去噪、去重、填充缺失值等预处理操作,以确保数据的准确性和完整性。

数据清洗的过程包括以下几个步骤:- 数据筛选:根据需求选择需要处理的数据。

- 数据去噪:删除异常、错误的数据,保留有效数据。

- 数据去重:去除重复的数据记录。

- 缺失值填充:对存在缺失值的数据进行填充,以保证数据的完整性。

Hadoop常见面试笔试题目与参考答案小结

Hadoop常见面试笔试题目与参考答案小结

Hadoop常见⾯试笔试题⽬与参考答案⼩结1. namenode的重要性是什么?namenode的作⽤在Hadoop中⾮常重要。

它是Hadoop的⼤脑,主要负责管理系统上的分配块,还为客户提出请求时的数据提供特定地址2. 当NameNode关闭时会发⽣什么?如果NameNode关闭,⽂件系统将脱机。

3. 是否可以在不同集群之间复制⽂件?如果是的话,怎么能做到这⼀点?是的,可以在多个Hadoop集群之间复制⽂件,这可以使⽤分布式复制来完成。

Distcp是⼀个Hadoop复制⼯具,主要⽤于执⾏MapReduce作业来复制数据。

Hadoop环境中的主要挑战是在各集群之间复制数据,distcp也将提供多个datanode来并⾏复制数据。

4. 什么是检查点?对⽂件数据的修改不是直接写回到磁盘的,很多操作是先缓存到内存的Buffer中,当遇到⼀个检查点Checkpoint时,系统会强制将内存中的数据写回磁盘,当然此时才会记录⽇志,从⽽产⽣持久的修改状态。

因此,不⽤重放⼀个编辑⽇志,NameNode可以直接从FsImage加载到最终的内存状态,这肯定会降低NameNode启动时间5. 什么是机架感知?这是⼀种决定如何根据机架定义放置块的⽅法。

Hadoop将尝试限制存在于同⼀机架中的datanode之间的⽹络流量。

为了提⾼容错能⼒,名称节点会尽可能把数据块的副本放到多个机架上。

综合考虑这两点的基础上Hadoop设计了机架感知功能。

6. 投机性执⾏如果⼀个节点正在执⾏⽐主节点慢的任务。

那么就需要在另⼀个节点上冗余地执⾏同⼀个任务的⼀个实例。

所以⾸先完成的任务会被接受,另⼀个可能会被杀死。

这个过程被称为“投机执⾏”。

7. 是否可以在Windows上运⾏Hadoop?可以,但是最好不要这么做,Red Hat Linux或者是Ubuntu才是Hadoop的最佳操作系统。

在Hadoop安装中,Windows通常不会被使⽤,因为会出现各种各样的问题。

大数据专员面试题目(3篇)

大数据专员面试题目(3篇)

第1篇一、基础知识与概念理解1. 题目:请简述大数据的基本概念及其与普通数据的主要区别。

解析:考察应聘者对大数据基本概念的理解。

应聘者应能够解释大数据的规模(大量、多样、快速)、价值密度低、处理和分析的技术和方法等特点,并说明大数据与普通数据在数据量、处理方式、分析目标等方面的区别。

2. 题目:大数据的五个V指的是什么?解析:考察应聘者对大数据特征的理解。

大数据的五个V分别是Volume(数据量)、Velocity(数据速度)、Variety(数据多样性)、Veracity(数据真实性)和Value(数据价值)。

应聘者应能够解释每个V的具体含义。

3. 题目:请简述Hadoop生态系统中的主要组件及其功能。

解析:考察应聘者对Hadoop生态系统的了解。

应聘者应能够列举Hadoop生态系统中的主要组件,如Hadoop分布式文件系统(HDFS)、Hadoop YARN、Hadoop MapReduce、Hive、Pig、HBase等,并解释每个组件的基本功能和作用。

4. 题目:请简述数据仓库和数据湖的区别。

解析:考察应聘者对数据仓库和数据湖的理解。

应聘者应能够解释数据仓库和数据湖在数据存储、处理、查询等方面的差异,以及它们在数据分析中的应用场景。

二、数据处理与分析5. 题目:请简述ETL(提取、转换、加载)过程在数据处理中的作用。

解析:考察应聘者对ETL过程的了解。

应聘者应能够解释ETL在数据预处理、数据清洗、数据转换等方面的作用,以及ETL工具在数据处理中的应用。

6. 题目:请描述数据切分、增量同步和全量同步的方法。

解析:考察应聘者对数据同步的理解。

应聘者应能够解释数据切分、增量同步和全量同步的概念,并举例说明在实际应用中的具体操作方法。

7. 题目:请简述数据挖掘中的分类、聚类和预测方法。

解析:考察应聘者对数据挖掘方法的了解。

应聘者应能够列举数据挖掘中的分类、聚类和预测方法,如决策树、K-means、支持向量机、神经网络等,并解释每种方法的基本原理和应用场景。

大数据高级面试题大全

大数据高级面试题大全

大数据高级面试题大全一、介绍大数据领域呈现爆发式增长,对于大数据专业人才的需求日益增加。

针对该领域的高级面试,本文整理了一些常见的大数据高级面试题,以帮助求职者更好地准备面试。

二、数据处理与存储1. 请简要介绍大数据的特点以及大数据处理的挑战。

大数据的特点包括数据量大、速度快、种类多、价值密度低。

大数据处理的挑战主要体现在数据采集、存储、处理和分析等方面,如数据清洗、分布式存储、并行计算等问题。

2. 请说明分布式文件系统的特点及应用场景。

分布式文件系统具有高可靠性、高容错性、高扩展性等特点。

它可以在多个节点上存储数据,适用于大规模数据存储和访问的场景,如云计算、大规模数据存储和分析等。

3. 请介绍Hadoop和Spark的区别。

Hadoop是一个基于MapReduce的分布式计算框架,适用于批处理任务,它通过将数据分成小块进行并行处理。

而Spark是一个内存计算框架,适用于迭代计算和实时数据处理任务,它将数据存储在内存中进行快速计算。

4. 请简要介绍NoSQL数据库及其特点。

NoSQL数据库是指非关系型数据库,相比于传统关系型数据库,它具有高可扩展性、高性能、灵活的数据模型等特点。

NoSQL数据库适用于大规模数据存储和访问的场景,如社交网络、日志分析等。

三、大数据处理与分析1. 请介绍常用的数据处理工具和技术。

常用的数据处理工具和技术包括Hadoop、Spark、Hive、Pig、Kafka等。

它们可以用于大规模数据的处理、分析和挖掘。

2. 请简要介绍Hive和Pig的区别。

Hive是一个基于Hadoop的数据仓库工具,它提供了类SQL查询和数据分析的功能。

Pig是一个用于大规模数据分析的平台,它提供了一种类似于脚本语言的数据流语言。

3. 请说明数据挖掘的基本流程及常用算法。

数据挖掘的基本流程包括数据清洗、数据集成、数据选择、数据变换、数据挖掘、模型评价等步骤。

常用的数据挖掘算法包括分类算法、聚类算法、关联规则算法等。

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

50个最受欢迎的Hadoop面试问题您是否打算在大数据和数据分析领域找到工作?您是否担心破解Hadoop面试?我们整理了一份方便的Hadoop面试问题清单。

您可能具有关于软件框架的丰富知识,但是在短短的15分钟面试环节中无法测试所有这些知识。

因此,面试官会问您一些特定的大数据面试问题,他们认为这些问题易于判断您对主题的了解。

立即注册:Hadoop基础在线培训课程Hadoop面试的前50名问答当前,与大数据相关的工作正在增加。

五分之一的大公司正在迁移到大数据分析,因此现在是时候开始申请该领域的工作了。

因此,我们不需再拖延地介绍Hadoop面试的前50名问答,这将帮助您完成面试。

Hadoop基本面试问题这些是您在大数据采访中必将面对的最常见和最受欢迎的大数据Hadoop采访问题。

通过准备这些Hadoop面试问题,无疑会给您带来竞争优势。

首先,我们将重点关注人们在申请Hadoop相关工作时遇到的常见和基本的Hadoop 面试问题,无论其职位如何。

1. Hadoop框架中使用了哪些概念?答:Hadoop框架在两个核心概念上起作用:•HDFS:Hadoop分布式文件系统的缩写,它是一个基于Java的文件系统,用于可扩展和可靠地存储大型数据集。

HDFS本身在主从架构上工作,并以块形式存储其所有数据。

•MapReduce:这是用于处理和生成大型数据集的编程模型以及相关的实现。

Hadoop作业基本上分为两个不同的任务作业。

映射作业将数据集分解为键值对或元组。

然后,reduce作业获取map作业的输出,并将数据元组合并为较小的元组集。

2.什么是Hadoop?命名Hadoop应用程序的主要组件。

答:Hadoop是“大数据”问题的解决方案。

Hadoop被描述为提供许多用于存储和处理大数据的工具和服务的框架。

当难以使用传统方法进行决策时,它在大数据分析和制定有效的业务决策中也起着重要作用。

Hadoop提供了广泛的工具集,可以非常轻松地存储和处理数据。

以下是Hadoop的所有主要组件:•Hadoop常见•HDFS•Hadoop MapReduce•纱•PIG和HIVE –数据访问组件。

•HBase –用于数据存储•Apache Flume,Sqoop,Chukwa –数据集成组件•Ambari,Oozie和ZooKeeper –数据管理和监视组件•Thrift和Avro –数据序列化组件•Apache Mahout和Drill –数据智能组件3. Hadoop中有几种输入格式?说明。

答:Hadoop中有以下三种输入格式–1.文本输入格式:文本输入是Hadoop中的默认输入格式。

2.序列文件输入格式:此输入格式用于按顺序读取文件。

3.键值输入格式:此输入格式用于纯文本文件。

4.您对YARN有什么了解?答:YARN代表“另一个资源协商者”,它是Hadoop处理框架。

YARN负责管理资源并为流程建立执行环境。

5.为什么在Hadoop集群中频繁删除和添加节点?答:Hadoop框架的以下功能使Hadoop管理员可以在Hadoop集群中添加(委托)和删除(停用)数据节点–1.Hadoop框架利用商用硬件,这是Hadoop框架的重要功能之一。

这会导致Hadoop集群中的DataNode频繁崩溃。

2.可扩展性是Hadoop框架的另一个重要功能,该功能根据数据量的快速增长而执行。

6.您对“机架意识”了解什么?答:在Hadoop中,机架感知定义为NameNode通过其确定块及其副本存储在Hadoop集群中的方式的算法。

这是通过机架定义来完成的,该定义将同一机架内的数据节点之间的通信量减到最少。

让我们举个例子–我们知道复制因子的默认值为3。

根据“复制品放置策略”,每个数据块的复制品的两个副本将存储在一个机架中,而第三份副本则存储在不同的机架中架。

7.您对投机执行了解多少?答:在Hadoop中,推测执行是在节点上较慢执行任务期间发生的过程。

在此过程中,主节点开始在另一个节点上执行同一任务的另一个实例。

然后接受最先完成的任务,并通过杀死该任务停止其他任务的执行。

8.说明Hadoop的一些重要功能。

答:Hadoop的重要功能是–•Hadoop框架是在基于Google大数据文件系统的Google MapReduce上设计的。

•Hadoop框架可以有效地解决许多问题,以进行大数据分析。

9.您知道一些使用Hadoop的公司吗?答:是的,我知道一些使用Hadoop的流行名称。

Yahoo –使用HadoopFacebook –开发Hive进行分析亚马逊,Adobe,Spotify,Netflix,eBay和Twitter是其他一些使用Hadoop的知名公司。

10.如何区分RDBMS和Hadoop?答:区分RDBMS和Hadoop的关键点是–1.RDBMS用于存储结构化数据,而Hadoop可以存储任何类型的数据,即非结构化,结构化或半结构化。

2.RDBMS遵循“写入时架构”策略,而Hadoop基于“读取时架构”策略。

3.数据模式在RDBMS中是众所周知的,它可以使读取速度更快,而在HDFS中,写操作在HDFS写入过程中不会发生模式验证,因此写入速度很快。

4.RDBMS是许可软件,因此需要付费。

而Hadoop是开源软件,因此无需花费任何费用。

5.RDBMS用于在线事务处理(OLTP)系统,而Hadoop也用于数据分析,数据发现和OLAP系统。

Hadoop体系结构面试问题接下来,我们有一些基于Hadoop架构的Hadoop面试问题。

了解和理解Hadoop架构有助于Hadoop专业人员正确回答所有Hadoop面试问题。

11. Hadoop 1和Hadoop 2有什么区别?答:以下两点说明了Hadoop 1和Hadoop 2之间的区别:在Hadoop 1.X中,只有一个NameNode,因此是单点故障,而在Hadoop 2.x中,则有主动和被动NameNode。

万一主动名称节点发生故障,被动名称节点将替换主动名称节点并承担费用。

结果,Hadoop 2.x中具有高可用性。

在Hadoop 2.x中,YARN提供了一个中央资源管理器,该资源管理器共享一个公共资源以在Hadoop中运行多个应用程序,而数据处理在Hadoop 1.x中是一个问题。

12.您对主动和被动NameNode有什么了解?答:在高可用性Hadoop架构中,存在两个NameNode。

Active NameNode –在Hadoop群集中运行的NameNode是Active NameNode。

被动NameNode –与“活动NameNode”存储相同数据的备用NameNode是“被动NameNode”。

在主动NameNode发生故障时,被动NameNode将替换它并负责。

这样,群集中始终有一个正在运行的NameNode,因此它永远不会失败。

13. Apache HBase的组成部分是什么?答:Apache HBase包含以下主要组件:•区域服务器:一个表可以分为几个区域。

这些区域中的一组由区域服务器提供给客户端。

•HMaster:协调和管理区域服务器。

•ZooKeeper:它充当HBase分布式环境中的协调器。

它通过会话中的通信维护集群内部服务器状态。

14. NameNode如何处理DataNode故障?答:NameNode不断从Hadoop群集中存在的所有DataNode接收信号,该信号指定DataNode的正常功能。

DataNode上存在的所有块的列表存储在块报告中。

如果DataNode无法将信号发送到NameNode,则在特定时间段后将其标记为无效。

然后,NameNode使用先前创建的副本将死节点的块复制/复制到另一个DataNode。

15.解释NameNode恢复过程。

答:NameNode恢复过程有助于保持Hadoop集群运行,可以通过以下步骤进行解释-步骤1:要启动新的NameNode,请使用文件系统元数据副本(FsImage)。

步骤2:配置客户端和DataNode确认新的NameNode。

步骤3:一旦新名称完成了最后一个检查点FsImage的加载并从DataNodes接收到块报告,新的NameNode将开始为客户端提供服务。

16. Hadoop中可用的调度程序有哪些?答:Hadoop中不同的可用调度程序是–COSHH –通过考虑群集,工作负载和使用异构性来调度决策。

FIFO调度程序–它根据作业在队列中的到达时间对作业进行排序,而无需使用异构性。

公平共享–它为每个用户定义一个池,该池包含许多映射并减少资源上的插槽。

允许每个用户使用自己的池来执行作业。

17. DataNode和NameNode可以是商品硬件吗?答:DataNode仅是商品硬件,因为它可以存储笔记本电脑和个人计算机之类的数据,而这些是大量必需的。

相反,NameNode是主节点。

它存储有关HDFS中存储的所有块的元数据。

它需要高存储空间,因此可以用作具有大存储空间的高端计算机。

18.什么是Hadoop守护程序?解释他们的角色。

答:Hadoop守护程序是NameNode,Secondary NameNode,DataNode,NodeManager,ResourceManager,JobHistoryServer。

不同的Hadoop守护程序的作用是–NameNode –负责所有目录和文件的元数据存储的主节点称为NameNode。

它还包含有关文件的每个块及其在Hadoop群集中的分配的元数据信息。

辅助NameNode –该守护程序负责将修改后的Filesystem Image合并并存储到永久存储中。

它用于NameNode发生故障的情况。

DataNode –包含实际数据的从节点是DataNode。

NodeManager –在从属计算机上运行,NodeManager处理应用程序容器的启动,监视资源使用情况并将其报告给ResourceManager。

ResourceManager –它是负责管理资源和计划在YARN顶部运行的应用程序的主要权限。

JobHistoryServer –当Application Master停止工作(终止)时,负责维护有关MapReduce作业的所有信息。

19.定义“检查点”。

有什么好处?答:检查点是将FsImage和Edit日志压缩到新的FsImage中的过程。

这样,NameNode 直接从FsImage处理最终的内存状态的加载,而不是重放编辑日志。

次要NameNode 负责执行检查点过程。

检查点的好处检查点是一个高效的过程,可以减少NameNode的启动时间。

Hadoop管理员面试问题Hadoop管理员负责处理Hadoop集群运行顺利的问题。

要破解Hadoop Administrator面试,您需要阅读与Hadoop环境,集群等相关的Hadoop面试问题。

相关文档
最新文档