大数据技术与应用 - 大数据处理和分析 - MapReduce - 第四课

合集下载

第4章大数据技术教程-MapReduce

第4章大数据技术教程-MapReduce

第四章分布式计算框架MapReduce4.1初识MapReduceMapReduce是一种面向大规模数据并行处理的编程模型,也一种并行分布式计算框架。

在Hadoop流行之前,分布式框架虽然也有,但是实现比较复杂,基本都是大公司的专利,小公司没有能力和人力来实现分布式系统的开发。

Hadoop的出现,使用MapReduce框架让分布式编程变得简单。

如名称所示,MapReduce主要由两个处理阶段:Map阶段和Reduce 阶段,每个阶段都以键值对作为输入和输出,键值对类型可由用户定义。

程序员只需要实现Map和Reduce两个函数,便可实现分布式计算,而其余的部分,如分布式实现、资源协调、内部通信等,都是由平台底层实现,无需开发者关心。

基于Hadoop开发项目相对简单,小公司也可以轻松的开发分布式处理软件。

4.1.1 MapReduce基本过程MapReduce是一种编程模型,用户在这个模型框架下编写自己的Map函数和Reduce函数来实现分布式数据处理。

MapReduce程序的执行过程主要就是调用Map函数和Reduce函数,Hadoop把MapReduce程序的执行过程分为Map和Reduce两个大的阶段,如果细分可以为Map、Shuffle(洗牌)、Reduce三个阶段。

Map含义是映射,将要操作的每个元素映射成一对键和值,Reduce含义是归约,将要操作的元素按键做合并计算,Shuffle在第三节详细介绍。

下面以一个比较简单的示例,形象直观介绍一下Map、Reduce阶段是如何执行的。

有一组图形,包含三角形、圆形、正方形三种形状图形,要计算每种形状图形的个数,见下图4-1。

图:4-1 map/reduce计算不同形状的过程在Map阶段,将每个图形映射成形状(键Key)和数量(值Value),每个形状图形的数量值是“1”;Shuffle阶段的Combine(合并),相同的形状做归类;在Reduce阶段,对相同形状的值做求和计算。

Spark大数据技术与应用智慧树知到课后章节答案2023年下山西职业技术学院

Spark大数据技术与应用智慧树知到课后章节答案2023年下山西职业技术学院

Spark大数据技术与应用智慧树知到课后章节答案2023年下山西职业技术学院山西职业技术学院绪论单元测试1.大数据的起源是以下哪个领域()A:互联网 B:金融 C:公共管理 D:电信答案:互联网第一章测试1.与MapReduce相比,Spark更适合处理以下哪种类型的任务()A:较少迭代次数的长任务 B:较少迭代次数的短任务 C:较多迭代次数的短任务 D:较多迭代次数的长任务答案:较多迭代次数的短任务2.Standalone模式下配置Spark集群时,master节点的工作端口号需要在conf文件夹下的哪个文件指明()A:regionserver B:slaves C:spark-defaults.conf D:spark-env.sh答案:spark-env.sh3.以下关于SPARK中的spark context,描述错误的是:()A:可以控制dagsheduler组件 B:可以控制task scheduler组件 C:控制整个application的生命周期 D:SparkContext为Spark的主要入口点答案:控制整个application的生命周期4.以下对Spark中Work的主要工作描述错误的是()A:不会运行业务逻辑代码 B:会运行业务逻辑代码 C:管理当前节点内存 D:接收master分配过来的资源指令答案:会运行业务逻辑代码5.配置Standalone模式下的Spark集群,Worker节点需要在conf文件夹下的哪个文件中指明()A:spark-env.sh B:spark-defaults.conf C:slaves D:regionserver答案:slaves6.Spark支持的分布式部署方式中哪个是错误的()A:Spark on local B:spark on YARN C:spark on mesos D:standalone答案:Spark on local7.Spark单机伪分布式模式,它的特点是在一台节点上既有Master服务,又有Worker服务()A:对 B:错答案:对8.在部署Spark独立模式时,配置spark内部通信的端口为()A:16010 B:7070 C:9870 D:7077答案:70779.在部署Spark独立模式时,配置spark的web端口为()A:7077 B:8080 C:9870 D:4040答案:707710.Spark的bin目录是spark运行脚本目录,该目录中包含了加载spark的配置信息,提交作业等执行命令的脚本()A:错 B:对答案:对第二章测试1.valrdd=sc.parallelize(1 to 10).filter(_%2== 0)rdd.collect上述代码的执行结果为()A:Array(1, 3, 5,7,9) B:Array(2, 4, 6, 8, 10) C:Array(1,2,3,4,5,6,7,8,9,10)D:Array(1,10)答案:Array(2, 4, 6, 8, 10)2.下面哪个操作是窄依赖()A:filter B:sort C:group D:join答案:filter3.下面哪个操作肯定是宽依赖()A:map B:sample C:flatMap D:reduceByKey答案:reduceByKey4.以下操作中,哪个不是Spark RDD编程中的操作。

《大数据技术原理与应用》林子雨 课后简答题答案

《大数据技术原理与应用》林子雨 课后简答题答案

《大数据技术原理与应用》林子雨课后简答题答案第一章大数据概述1. 试述大数据的四个基本特征。

数据量大:人类进入信息社会后,数据以自然方式增长,数据每两年就会增加一倍多。

数据类型繁多:大数据的数据类型非常丰富,包括结构化数据和非结构化数据,如邮件、音频、视频等,给数据处理和分析技术提出了新的挑战。

处理速度快:由于很多应用都需要基于快速生成的数据给出实时分析结果,因此新兴的大数据分析技术通常采用集群处理和独特的内部设计。

价值密度低:有价值的数据分散在海量数据中。

2. 举例说明大数据的关键技术。

大数据技术层面功能数据采集与预处理利用ETL 工具将分布在异构数据源中的数据抽到临时中间层后进行清洗、转换和集成后加载到数据仓库中,成为联机分析处理、数据挖掘的基础,也可以利用日志采集工具(如 Flume、Kafka 等)将实时采集的数据作为流计算系统的输入,进行实时处理分析。

数据存储和管理利用分布式文件系统、NoSQL 数据库等实现对数据的存储和管理。

数据处理与分析利用分布式并行编程模型和计算框架,结合机器学习和数据挖掘算法,实现对海量数据的处理和分析,并进行可视化呈现。

数据安全和隐私保护构建数据安全体系和隐私数据保护体系。

3. 详细阐述大数据、云计算和物联网三者之间的区别与联系区别联系大数据侧重于海量数据的存储、处理与分析,从海量数据中发现价值,服务于生产和生活;云计算旨在整合和优化各种 IT 资源并通过网络以服务的方式,廉价地提供给用户;物联网的发展目标是实现“ 物物相连”,应用创新是物联网的核心。

从整体上看,大数据、云计算和物联网这三者是相辅相成的。

大数据根植于云计算,大数据分析的很多技术都来自于云计算,云计算的分布式存储和管理系统提供了海量数据的存储和管理能力,分布式并行处理框架MapReduce 提供了数据分析能力。

没有这些云计算技术作为支撑,大数据分析就无从谈起。

物联网的传感器源源不断的产生大量数据,构成了大数据的重要数据来源,物联网需要借助于云计算和大数据技术,实现物联网大数据的存储、分析和处理。

2024年大数据应用及处理技术能力知识考试题库与答案

2024年大数据应用及处理技术能力知识考试题库与答案

2024年大数据应用及处理技术能力知识考试题库与答案一、单选题1.当图像通过信道传输时,噪声一般与()无关。

A、信道传输的质量B、出现的图像信号C、是否有中转信道的过程D、图像在信道前后的处理参考答案:B2.在留出法、交叉验证法和自助法三种评估方法中,()更适用于数据集较小、难以划分训练集和测试集的情况。

A、留出法B、交叉验证法C、自助法D、留一法参考答案:C3.在数据科学中,通常可以采用()方法有效避免数据加工和数据备份的偏见。

A、A/B测试B、训练集和测试集的划分C、测试集和验证集的划分D、图灵测试参考答案:A4.下列不属于深度学习内容的是(_)oA、深度置信网络B、受限玻尔兹曼机C、卷积神经网络D、贝叶斯学习参考答案:D5.在大数据项目中,哪个阶段可能涉及使用数据工程师来优化数据查询性能?A、数据采集B、数据清洗C、数据存储与管理D、数据分析与可视化参考答案:C6.假定你现在训练了一个线性SVM并推断出这个模型出现了欠拟合现象,在下一次训练时,应该采取下列什么措施()A、增加数据点B、减少数据点C、增加特征D、减少特征参考答案:C7.两个变量相关,它们的相关系数r可能为0?这句话是否正确0A、正确B、错误参考答案:A8.一幅数字图像是()。

A、一个观测系统B、一个由许多像素排列而成的实体C、一个2-D数组中的元素D、一个3-D空间中的场景参考答案:C9.以下说法正确的是:()。

一个机器学习模型,如果有较高准确率,总是说明这个分类器是好的如果增加模型复杂度,那么模型的测试错误率总是会降低如果增加模型复杂度,那么模型的训练错误率总是会降低A、1B、2C、3D、land3参考答案:c10.从网络的原理上来看,结构最复杂的神经网络是0。

A、卷积神经网络B、长短时记忆神经网络C、GRUD、BP神经网络参考答案:B11.LSTM中,(_)的作用是确定哪些新的信息留在细胞状态中,并更新细胞状态。

A、输入门B、遗忘门G输出门D、更新门参考答案:A12.Matplotiib的核心是面向()。

Chapter7-厦门大学-林子雨-大数据技术原理与应用-第七章-MapReduce

Chapter7-厦门大学-林子雨-大数据技术原理与应用-第七章-MapReduce

图7-1 MapReduce工作流程
《大数据技术原理与应用》
厦门大学计算机科学系
林子雨
Hale Waihona Puke ziyulin@7.2.2MapReduce各个执行阶段
节点1
从分布式文件系统中加载文件
节点2
从分布式文件系统中加载文件
InputFormat 文件 文件 Split Split Split Split
7.3.1WordCount程序任务
表7-2 WordCount程序任务 WordCount
一个包含大量单词的文本文件 文件中每个单词及其出现次数(频数),并按照单词 字母顺序排序,每个单词和其频数占一行,单词和频 数之间有间隔
程序 输入 输出
表7-3 一个WordCount的输入和输出实例 输入 Hello World Hello Hadoop Hello MapReduce 输出 Hadoop 1 Hello 3 MapReduce 1 World 1
输入的中间结果<k2,List(v2)>中的 List(v2)表示是一批属于同一个k2的 value
Reduce
<k2,List(v2)>
<k3,v3>
《大数据技术原理与应用》
厦门大学计算机科学系
林子雨
ziyulin@
7.2 MapReduce工作流程
• 7.2.1 • 7.2.2 • 7.2.3 工作流程概述 MapReduce各个执行阶段 Shuffle过程详解
1.“Hello World Bye World”
Map
2.“Hello Hadoop Bye Hadoop”
Map
3.“Bye Hadoop Hello Hadoop”

《大数据技术及应用》教学大纲[3页]

《大数据技术及应用》教学大纲[3页]
教学重点:HDFS的体系结构和工作原理、HDFS文件系统的操作命令
教学难点:利用pyhdfs实现HDFS文件系统的操作
4+2
第5章HBase基础与应用
教学内容:
(1)HBase的体系结构、核心组件和工作原理
(2)HBase的常用命令,使用命令对HBase系统进行操作
(3)利用Jyhdfs实现HBase数据库系统的操作
课程学习目标
学习目标1:掌握大数据的基本原理、主流的大数据处理平台和技术方法。
学习目标2:提高学生应用大数据思维和技术方法解决实际问题的能力。
学习目标3:培养学生运用大数据技术中的科学思维与计算思维,激发学生科技报国、奉献社会的情怀和使命担当。
二、课程教学内容和学时分配
章节
教学内容及其重难点
学时安排
4+2
第8章大数据分析与挖掘
教学内容:
(1)数据的描述性分析
(2)回归、分类与聚类的基本原理与常用算法
(3)分布式大数据挖掘算法典型案例
教学重点:回归、分类与聚类的基本原理与常用算法
教学难点:基于MapReduce的分布式大数据挖掘算法的设计与实现
4+2
第9章数据可视化
教学内容:
(1)数据可视化的常用方法
《大数据技术及应用》课程教学大纲
一、课程基本信息
课程
编号
课程
名称
大数据技术及应用
课 程 基 本 情 况
学时
32(课堂)+18(实验)
课程性质
专业选修
先修课程
高级语言程序设计,数据库原理
考核方式
考试,作业考核,课堂表现考核
教材及
参考书
教材:严宣辉,张仕,赖会霞,韩凤萍.大数据技术及应用—基于Python语言.电子工业出版社.2021.10

《大数据技术与应用》课程教学大纲

《大数据技术与应用》课程教学大纲

《大数据技术与应用》教学大纲一、课程基本信息1.课程代码:211226002.课程中文名称:大数据技术与应用课程英文名称:Technologies and Applications of Big Data3.面向对象:信息工程学院软件工程系三年级学生4.开课学院(课部)、系(中心、室):信息工程学院软件工程系5.总学时数:40讲课学时数:24,实验学时数:166.学分数:2.57.授课语种:中文,考试语种:中文8.教材:待定二、课程内容简介课程将系统讲授大数据的基本概念、大数据处理架构Hadoop、分布式文件系统HDFS、分布式数据库HBase、NoSQL数据库、云数据库、分布式并行编程模型MapReduce,流计算、图计算、数据可视化以及大数据在互联网、生物医学和物流等各个领域的应用。

三' 课程的地位、作用和教学目标专业选修课,大数据技术入门课程,为学生搭建起通向“大数据知识空间”的桥梁和纽带,以“构建知识体系、说明基本原理、引导初级实践、了解相关应用”为原那么,为学生在大数据领域“深耕细作”奠定基础、指明方向。

在Hadoop、HDFS> HBase和MapReduce等重要章节,安排了入门级的实践操作,让学生更好地学习和掌握大数据关键技术。

四'与本课程相联系的其他课程先修课程:数据库系统概论、计算机高级语言程序设计五' 教学基本要求(1)能够建立对大数据知识体系的轮廓性认识,了解大数据开展历程、基本概念、主要影响、应用领域、关键技术、计算模式和产业开展,并了解云计算、物联网的概念及其与大数据之间的紧密关系;(2)能够了解Hadoop的开展历史、重要特性和应用现状,Hadoop工程结构及其各个组件, 并熟练掌握Hadoop平台的安装和使用方法;(3)能够了解分布式文件系统的基本概念、结构和设计需求,掌握Hadoop分布式文件系统HDFS的重要概念、体系结构、存储原理和读写过程,并熟练掌握分布式文件系统HDFS 的使用方法;(4)能够了解分布式数据库HBase的访问接口、数据模型、实现原理和运行机制,并熟练掌握HBase的使用方法;(5)能够了解NoSQL数据库与传统的关系数据库的差异、NoSQL数据库的四大类型以及NoSQL数据库的三大基石;基本掌握Redis、MongoDB等NoSQL数据库的使用方法;(6)能够了解云数据库的概念、基本原理和代表性产品的使用方法;(7)能够熟练掌握分布式编程框架MapReduce的基本原理和编程方法;(8)能够了解流计算与批处理的区别,以及流计算的基本原理;(9)能够了解图计算的基本原理;(10)能够了解数据可视化的概念和相关工具;(11)能够了解大数据在互联网等领域的典型应用。

大数据技术基础智慧树知到答案章节测试2023年东北石油大学

大数据技术基础智慧树知到答案章节测试2023年东北石油大学

绪论单元测试1.本课程中关于大数据处理与分析部分的学习内容有:()A:Mapreduce的编程模型B:大数据分析的常用算法C:大数据分析过程D:大数据分析分析工具答案:ABCD第一章测试1.大数据的基本特征包括()。

A:数据的价值密度但商业价值高B:数据增长速度快C:数据来源和数据数据类型多样化D:数据规模大答案:ABCD2.下面说法正确的是()。

A:大数据指海量多样的数据、分析数据的方法、管理数据的系统、数据的应用的统称B:大数据是第三次信息化浪潮以后产生的数据C:大数据就是数据容量达到1T以上的数据D:大数据指数据而不包括数据的分析结果答案:A3.下面哪些技术属于大数据技术。

()A:快速传输数据的技术。

B:网盘数据存储技术C:从各种数据源中采集数据的技术。

D:人脸识别技术。

答案:ABC4.如何理解“大数据分析是相关性分析而不是因果分析”。

()A:不仅要知其然,还要知其所以然。

B:不仅要进行相关分析分析,也要进行因果关系分析。

C:发现两个现象的相关性后,经过进一步深入研究,找出因果关系,就会实现技术创新。

D:相关性分析就是通过对大量数据进行统计分析,获取两个现象之间具有关联性。

答案:ABCD5.大数据的特征Variety是指:()A:数据变化多端B:数据来源广泛C:数据格式多样D:数据用途丰富答案:BC第二章测试1.在Python中,语句print(3 < 5 > 2)的输出结果为False。

()A:错B:对答案:A2.已知x是一个足够大的numpy二维数组,那么语句x[0,2]=4的作用是把行下标为0、列下标为2的元素值改为4。

()A:对B:错答案:A3.扩展库pandas中DataFrame对象的drop_duplicates()方法可以用来合并数据。

()A:对B:错答案:B4.已知x = [1,2]和y = [3,4],那么x+y的结果是()。

A:3B:7C:[4, 6]D:[1, 2, 3, 4]答案:D5.Pandas中常用的数据结构包括()。

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
息,并将这些信息告诉任务调度器(TaskScheduler ),而调度器会在资源出现空闲时,选择合适的任务 去使用这些资源
1.2 MapReduce体系结构(续)
• 3)TaskTracker
– TaskTracker 会周期性地通过“心跳”将本节点上资源 的使用情况和任务的运行进度汇报给JobTracker,同时 接收JobTracker 发送过来的命令并执行相应的操作(如 启动新任务、杀死任务等)
表2 一个WordCount的输入和输出实例
输入
Hello World Hello Hadoop Hello MapReduce
输出
Hadoop 1 Hello 3 MapReduce 1 World 1
1.4.2 WordCount设计思路
• 首先,需要检查WordCount程序任务是否可 以采用MapReduce来实现
合并(Combine)和归并(Merge)的区别: 两个键值对<“a”,1>和<“a”,1>,如果合并,会得到<“a”,2>,如果归并,会得到<“a”,<1,1>>
1.3.3 Shuffle过程详解
3. Reduce端的Shuffle过程
•Reduce任务通过RPC向JobTracker询问Map任务是否已经完成,若完成,则领取数据 •Reduce领取数据先放入缓存,来自不同Map机器,先归并,再合并,写入磁盘 •多个溢写文件归并成一个或多个大文件,文件中的键值对是排序的 •当数据很少时,不需要溢写到磁盘,直接在缓存中归并,然后输出给Reduce
} }
1.5.3 编写Reduce处理逻辑
• 在Reduce处理数据之前,Map的结果首先通过Shuffle阶段进行整理
• Reduce阶段的任务:对输入数字序列进行求和
• Reduce的输入数据为<key,Iterable容器>
Reduce任务的输入数据: <”I”,<1,1>> <”is”,1> …… <”from”,1> <”China”,<1,1,1>>
• MapReduce 框 架 采 用 了 Master/Slave 架 构 , 包 括 一 个 Master和若干个Slave
• Hadoop MapReduce是Google MapReduce的开源实现,后面 讲的MapReduce不做说明的情况下均指Hadoop MapReduce
1.1.3 Map和Reduce函数
•不同的Map任务之间不会进行通信 •不同的Reduce任务之间也不会发生任何信息交换 •用户不能显式地从一台机器向另一台机器发送消息 •所有的数据交换都是通过MapReduce框架自身去实现的
Hale Waihona Puke 1.3.2 MapReduce任务执行过程
1.3.2 MapReduce任务执行过程(续)
关于Split(分片)
集群架构/容错性
硬件/价格/扩展性
编程/学习难度 适用场景
传统并行计算框架
MapReduce
共享式(共享内存/共享存储),容 非共享式,容错性好 错性差
专用服务器、高速网、SAN,价格 普通PC机,便宜,扩展性
贵,扩展性差

what-how,难
what,简单
实时、细粒度计算、计算密集型 批处理、非实时、数据密 集型
Map端Shuffle过程中 使用Combiner函数后的输出
发送给Reduce任务
Reduce的输出
用户有定义Combiner时的Reduce过程示意图
1.5 MapReduce编程实践
• 1.5.1 • 1.5.2 • 1.5.3 • 1.5.4
任务要求 编写Map处理逻辑 编写Reduce处理逻辑 编写main方法
1.3.3 Shuffle过程详解
2. Map端的Shuffle过程
•每个Map任务分配一个缓存(默认100MB) •溢写比例默认为0.8 •分区默认采用哈希函数 •排序是默认的操作 •排序后可以合并(Combine) •合并不能改变最终结果
•在Map任务全部结束之前进行归并 •归并得到一个大的文件,放在本地磁盘 •文件归并时,如果溢写文件数量大于预定 值(默认是3)则可以再次启动Combiner, 减少写入磁盘的数据量 •JobTracker会一直监测Map任务的执行,并 通知Reduce任务来领取数据
1 Mapreduce
• 1.1 MapReduce概述 • 1.2 MapReduce体系结构 • 1.3 MapReduce工作流程 • 1.4 实例:WordCount • 1.5 MapReduce编程实践
1.1 MapReduce概述
• 1.1.1 分布式并行编程 • 1.1.2 MapReduce简介 • 1.1.3 Map和Reduce函数
• Map输入类型为<key,value>
• 期望的Map输出类型为<单词,出现次数>
• Map输入类型最终确定为<Object,Text>
• Map输出类型最终确定为<Text,IntWritable>
public static class MyMapper extends Mapper<Object,Text,Text,IntWritable>{ private final static IntWritable one = new IntWritable(1); private Text word = new Text(); public void map(Object key, Text value, Context context) throws
• 其次,确定MapReduce程序的设计思路 • 最后,确定MapReduce程序的执行过程
1.4.3 WordCount执行过程
Map过程示意图
1.4.3 WordCount执行过程
用户没有定义Combiner时的Reduce过程示意图
1.4.3 WordCount执行过程
Map输出的结果
int sum = 0; for (IntWritable val : values) {
HDFS 以固定大小的block 为基本单位存储数据,而对于MapReduce而言,其处 理单位是split。split 是一个逻辑概念,它只包含一些元数据信息,比如数据 起始位置、数据长度、数据所在节点等。它的划分方法完全由用户自己决定。
1.3.3 Shuffle过程详解
1. Shuffle过程简介
OSDI'04: MapReduce: Simplified Data Processing on Large Clusters
1.1.1 分布式并行编程(续)
问题:在MapReduce出现之前,已经有像MPI这样非常成熟 的并行计算框架了,那么为什么Google还需要MapReduce? MapReduce相较于传统的并行计算框架有什么优势?
IOException,InterruptedException{ StringTokenizer itr = new StringTokenizer(value.toString()); while (itr.hasMoreTokens()) { word.set(itr.nextToken()); context.write(word,one); }
表 Map和Reduce
函数 Map
输入
<k1,v1> 如:
<行号,”a b c”>
Reduce <k2,List(v2)> 如:
<“a”,<1,1,1>>
输出
List(<k2,v2>) 如: <“a”,1> <“b”,1> <“c”,1>
<k3,v3>
<“a”,3>
说明
1.将小数据集进一步解析成一批 <key,value>对,输入Map函数中进行 处理 2.每一个输入的<k1,v1>会输出一批 <k2,v2>。<k2,v2>是计算的中间结果 输入的中间结果<k2,List(v2)>中的 List(v2)表示是一批属于同一个k2的 value
1.5.3 编写Reduce处理逻辑(续)
public static class MyReducer extends Reducer<Text,IntWritable,Text,IntWritable>{
private IntWritable result = new IntWritable(); public void reduce(Text key, Iterable<IntWritable> values, Context context) throws IOException,InterruptedException{
1.1.2 MapReduce简介
• MapReduce将复杂的、运行于大规模集群上的并行计算过 程高度地抽象到了两个函数:Map和Reduce
• 编程容易,不需要掌握分布式并行编程细节,也可以很容 易把自己的程序运行在分布式系统上,完成海量数据的计 算
• MapReduce采用“分而治之”策略,一个存储在分布式文 件系统中的大规模数据集会被切分成许多独立的分片( split),然后进行分布式并行处理
1.1.1 分布式并行编程
• “摩尔定律”, CPU性能大约每隔18个月翻一番 • 摩尔定律从2005年开始逐渐失效,然而需要处理的
数据量快速增加,人们开始借助于分布式并行计算 来提高程序性能 • 程序运行在大规模计算机集群上,可以分布式并行 执行大规模数据处理任务,从而获得更强的计算能 力 • 谷歌公司提出了新型分布式并行编程框架MapReduce
相关文档
最新文档