分布式实时(流)计算框架

合集下载

flink使用详解

flink使用详解

flink使用详解
Flink 是一个开源的流处理框架,用于在分布式系统中进行实时数据处理和计算。

它具有高吞吐、低延迟、高可靠性等特点,适用于各种数据处理场景,如实时数据分析、数据清洗、数据转换等。

以下是Flink 的使用详解:
1. 数据处理模型:Flink 支持多种数据处理模型,包括流处理、批处理和混合处理。

流处理模型可以实时处理连续到达的数据,而批处理模型则适用于大规模数据的批量处理。

2. 编程模型:Flink 提供了多种编程模型,包括DataStream API(流处理)和DataSet API(批处理)。

使用这些编程模型,你可以定义和执行数据处理逻辑。

3. 部署和运行:Flink 可以在各种集群环境中进行部署和运行,如本地模式、独立模式和YARN 模式等。

你可以根据实际需求选择适合的部署方式。

4. 数据源和数据接收器:Flink 支持多种数据源和数据接收器,可以与各种数据源(如Kafka、Cassandra、Hadoop 等)进行集成,并将处理结果输出到不同的目标系统。

5. 窗口和时间语义:Flink 支持窗口操作,用于对数据进行时间窗口的聚合和计算。

它还提供了丰富的时间语义,如事件时间和处理时间。

6. 状态管理和容错:Flink 支持状态管理,可以在数据处理过程中维护状态信息。

同时,它具备容错机制,能够在节点故障或数据丢失时进行恢复。

7. 性能优化:为了提高Flink 的性能,你可以进行一些性能优化措施,如调整并行度、优化数据倾斜、使用合适的数据格式等。

8. 应用场景:Flink 适用于各种实时数据处理应用场景,如实时数据分析、实时监控、欺诈检测、数据管道等。

storm的用法

storm的用法

storm的用法一、了解Storm大数据处理框架Storm是一个用于实时流数据处理的分布式计算框架。

它由Twitter公司开发,并于2011年发布。

作为一个开源项目,Storm主要用于处理实时数据,比如实时分析、实时计算、流式ETL等任务。

二、Storm的基本概念及特点1. 拓扑(Topology):拓扑是Storm中最重要的概念之一。

它代表了整个计算任务的结构和流程。

拓扑由一系列组件组成,包括数据源(Spout)、数据处理节点(Bolt)以及它们之间的连接关系。

2. 数据源(Spout):Spout负责从外部数据源获取数据,并将其发送给Bolt进行处理。

在拓扑中,通常会有一个或多个Spout进行数据输入。

3. 数据处理节点(Bolt):Bolt是对数据进行实际处理的模块。

在Bolt中可以进行各种自定义的操作,如过滤、转换、聚合等,根据业务需求不同而定。

4. 流组(Stream Grouping):Stream Grouping决定了从一个Bolt到下一个Bolt 之间的任务调度方式。

Storm提供了多种Stream Grouping策略,包括随机分组、字段分组、全局分组等。

5. 可靠性与容错性:Storm具有高可靠性和容错性的特点。

它通过对任务状态进行追踪、失败重试机制和数据备份等方式,确保了整个计算过程的稳定性。

6. 水平扩展:Storm可以很方便地进行水平扩展。

通过增加计算节点和调整拓扑结构,可以实现对处理能力的无缝提升。

三、Storm的应用场景1. 实时分析与计算:Storm适用于需要对大规模实时数据进行即时分析和计算的场景。

比如金融领域中的实时交易监控、电商平台中用户行为分析等。

2. 流式ETL:Storm可以实现流式ETL(Extract-Transform-Load)操作,将源数据进行抽取、转换和加载到目标系统中,并实时更新数据。

3. 实时推荐系统:通过结合Storm和机器学习算法,可以构建快速响应的实时推荐系统。

JStorm—实时流式计算框架入门介绍

JStorm—实时流式计算框架入门介绍

JStorm—实时流式计算框架⼊门介绍JStorm介绍 JStorm是参考storm基于Java语⾔重写的实时流式计算系统框架,做了很多改进。

如解决了之前的Storm nimbus节点的单点问题。

JStorm类似于Hadoop MapReduce系统,⽤户按照指定的接⼝去实现⼀个任务,任务提交给JStorm进⾏运⾏,且这种运⾏是不间断的,因为如果期间有worker发⽣故障,调度器会分配⼀个新的worker去替换这个故障worker。

从应⽤的⾓度来看,JStorm是⼀种分布式应⽤;从系统框架层⾯来看,JStorm⼜是⼀种类似于Hadoop MapReduce的调度系统;从数据层⾯来看,JStorm⼜是⼀种流式的实时计算⽅案。

JStorm优势1. 易开发性: JStomr接⼝简易,只需按照Spout、Bolt及Topology编程规范进⾏应⽤开发即可;2. 扩展性:可以线性的扩展性能,配置并发数即可;3. 容错性:出现故障worker时,调度器会分配⼀个新的worker去代替;4. 数据精准性:JStorm内置ACK机制,确保数据不丢失。

还可以采⽤事务机制确保进⼀步的精准度;5. 实时性:JStorm不间断运⾏任务,且实时计算。

JStorm应⽤场景1. 实时计算:可实时数据统计,实时监控;2. 消息转移:流处理完消息后,可以定向的将结果存储到其他消息中间件中;3. rpc请求:提交任务就是⼀次rpc请求过程;典型的场景:⽤于⽇志分析,rpc请求提交任务,从收集的⽇志中,统计出特定的数据结果,并将统计后的结果持久化到外部存储中,这是⼀种信息流处理⽅式,可聚合,可分析。

JStorm架构组件介绍UI:JStorm web界⾯。

Nimbus:调度者,是主控制节点,主要功能为提交任务、分配集群任务、集群监控等。

Supervisor:负责接收Nimbus分配的任务,管理⾃⼰的所属Worker进程,supervisor节点是整个集群中实际运⾏的topology节点。

分布式计算架构设计与实现

分布式计算架构设计与实现

分布式计算架构设计与实现随着人工智能、大数据、物联网等新技术的发展,计算机系统面临着越来越大的数据量和复杂的计算任务。

传统的计算机架构已经不足以满足需求,分布式计算架构应运而生。

本文将探讨分布式计算架构的设计与实现。

一、分布式计算架构的概念分布式计算架构是指一个由多个计算机协同工作组成的计算环境,分布式计算系统中的计算机节点互相通信,相互协作,共同完成一个计算任务。

与传统的集中式计算环境相比,分布式计算系统具有如下优点:1.可靠性高:由于分布式计算系统中每个节点都是相互独立的,当其中的一个节点出现故障时,其他节点仍然可以正常工作。

因此,分布式计算系统有更高的可靠性。

2.灵活性好:分布式计算系统可以根据需要动态添加或删除计算节点,从而适应不同规模和需求的计算任务。

3.处理能力强:由于分布式计算系统可以在多个计算节点同时工作,其处理能力也相应增强。

4.可扩展性强:分布式计算系统可以通过增加节点数量来提高系统的整体性能。

二、分布式计算架构的设计分布式计算架构的设计是一个复杂的过程,需要考虑很多因素。

下面介绍一些常用的分布式计算架构设计模式。

1.客户端-服务器架构客户端-服务器架构是最常用的分布式计算架构之一,它将计算任务分成客户端和服务器两个部分。

客户端向服务器发出请求,服务器根据所收到的请求来进行计算,并将计算结果返回给客户端。

客户端-服务器架构可以降低系统的复杂性,提高系统的可靠性和安全性。

但是,由于服务器要承担所有计算任务,如果客户端数量过多,服务器负载会变得非常大,导致系统性能受到影响。

2.对等网络架构对等网络架构是一种去中心化的分布式计算架构。

在对等网络架构中,每个节点都是对等的,它们之间相互通信,共同完成计算任务。

对等网络架构的优点是可以充分利用每个节点的计算能力,当其中的一个节点出现故障时,其他节点仍然可以正常工作。

但是,对等网络架构的缺点是系统的设计和管理比较困难。

3.基于消息传递的架构基于消息传递的架构是一种基于消息传递的分布式计算架构。

如何解决大规模实时数据处理和流式计算

如何解决大规模实时数据处理和流式计算

如何解决大规模实时数据处理和流式计算随着大数据时代的到来,大规模实时数据处理和流式计算成为了许多企业和组织面临的挑战。

传统的批处理方式已经无法满足实时性和高吞吐量的需求,因此需要采用新的方法和技术来解决这个问题。

下面将介绍一些用于解决大规模实时数据处理和流式计算的常见方法和技术。

一、数据处理模型1.批处理模型批处理模型是最传统的数据处理模型,它是将数据分成批次进行处理的方式。

批处理适合于对数据的全量分析和处理,但对于实时性要求高的场景来说并不合适。

2.流处理模型流处理模型是一种连续处理数据流的方式,它适用于实时性要求高的场景。

流处理模型能够实时处理来自不同数据源的数据流,并能够对数据进行实时的计算和分析。

二、流式计算框架1. Apache KafkaApache Kafka是一个分布式流处理平台,它通过提供高吞吐量、低延迟的消息传递系统来支持大规模实时数据处理。

Kafka使用消息的方式来处理流数据,同时也能够提供数据持久化和容错能力。

2. Apache FlinkApache Flink是一个用于大规模流式计算的开源框架,它支持以流的形式处理数据,并提供了丰富的计算操作来处理数据流。

Flink能够自动处理容错和恢复,同时也能够处理有界和无界的数据。

3. Apache StormApache Storm是一个分布式实时计算系统,它将数据流分成小的任务单元进行处理,并实现了容错和高可用。

Storm适合于高吞吐量的实时数据处理场景。

4. Apache SamzaApache Samza是一个分布式流处理框架,它将流式计算任务分割成小的处理单元,并使用Apache Kafka作为消息传递系统。

Samza提供了容错和恢复的能力,同时还能够与其他批处理框架集成。

三、架构设计和最佳实践在设计和实现大规模实时数据处理和流式计算系统时,需要考虑以下几个方面:1.数据采集和传输选择合适的数据采集和传输方式是实时数据处理的关键。

分布式计算框架ray 功能架构

分布式计算框架ray 功能架构

分布式计算框架ray 功能架构分布式计算框架Ray 功能架构。

Ray是一个快速、可扩展的分布式执行框架,旨在为机器学习和大规模数据处理等工作负载提供高效的分布式计算能力。

Ray的功能架构可以分为以下几个核心部分:
1. 分布式任务调度,Ray提供了高效的分布式任务调度功能,能够自动将任务分配给集群中的多个节点进行并行执行。

它支持任务的动态调度和资源的动态分配,能够实现任务的高效利用和负载均衡。

2. 分布式状态管理,Ray提供了分布式状态管理功能,允许用户在分布式环境中共享和管理状态。

这使得在分布式计算过程中能够方便地共享数据和状态,并且能够实现一致性和容错性。

3. 分布式数据处理,Ray支持分布式数据处理,能够高效地处理大规模数据集。

它提供了丰富的数据处理接口和工具,能够方便地进行数据的加载、处理和存储。

4. 分布式机器学习,Ray提供了丰富的机器学习功能和库,能够支持分布式机器学习任务的高效执行。

它提供了分布式训练、模型管理和推理等功能,能够满足复杂的机器学习任务需求。

5. 分布式任务监控和调试,Ray提供了完善的分布式任务监控和调试功能,能够方便地监控任务的执行情况和调试任务的问题。

它提供了丰富的监控指标和工具,能够帮助用户及时发现和解决问题。

总的来说,Ray的功能架构设计非常灵活和强大,能够满足各种分布式计算任务的需求。

它的高效性和易用性使得它成为了越来越多分布式计算任务的首选框架。

随着技术的不断演进和社区的不断壮大,Ray将会有更广泛的应用和更丰富的功能。

大数据主要技术分类(二)

大数据主要技术分类(二)

大数据主要技术分类(二)引言:大数据作为当今社会的热门话题之一,其应用范围越来越广泛。

在处理海量数据时,需要运用各种技术来提高数据的存储、处理和分析效率。

本文将介绍大数据的主要技术分类,包括存储技术、处理技术、分析技术、可视化技术和安全技术,以帮助读者更好地了解和应用大数据技术。

正文:一、存储技术1. 分布式文件系统:如Hadoop分布式文件系统(HDFS)、Google文件系统(GFS)等,能够将数据分区存储在多台服务器中,提高数据的容错能力和可扩展性。

2. 列式存储:将数据按列存储,能够提高数据的读取效率,常用的列式存储数据库有HBase、Cassandra等。

3. 对象存储:将数据存储为对象形式,具有高拓展性和弹性,常见的对象存储技术有Amazon S3、Openstack Swift等。

4. 冷热数据分离:将热数据(经常被访问的数据)和冷数据(不经常被访问的数据)分开存储,以提高存储效率和降低成本。

5. 数据压缩:通过数据压缩技术减少数据所占的存储空间,如Gzip、Snappy等。

二、处理技术1. 分布式计算框架:如Apache Spark、Apache Flink等,能够将数据进行并行计算,提高处理速度和效率。

2. 批处理:将大批量的数据一次性输入进行处理,常用的批处理技术有Hadoop MapReduce等。

3. 流式处理:对实时的流数据进行处理和计算,常用的流式处理技术有Storm、Kafka等。

4. 图计算:用于处理图结构数据的计算技术,常用的图计算框架有GraphX、Giraph等。

5. 冗余容错:通过数据冗余和容错机制,保证在计算过程中的数据可靠性和可用性。

三、分析技术1. 数据挖掘:通过应用统计学和机器学习等方法,发现数据中的模式、关联和趋势等有价值的信息。

2. 数据可视化:将大数据通过图表、图形和地图等方式展示出来,帮助用户直观地理解和分析数据。

3. 预测分析:基于历史数据和模型,预测未来的趋势、需求和行为等,用于辅助决策和规划。

分布式系统中的数据处理与计算模型(九)

分布式系统中的数据处理与计算模型(九)

分布式系统中的数据处理与计算模型随着科技的不断进步,分布式系统在许多领域得到了广泛的应用。

分布式系统是由多个独立的计算机组成的,它们通过网络进行通信和协调,以实现共同的目标。

在分布式系统中,数据处理与计算模型扮演了至关重要的角色。

本文将探讨一些常见的数据处理与计算模型。

一、批处理模型批处理模型是最早使用的数据处理与计算模型之一。

在批处理模型中,数据被划分成一批批的任务,在一定的时间间隔内进行处理。

这种模型适用于对大量数据进行处理,并且结果并不要求实时反馈的场景,如批量的数据分析、离线任务执行等。

二、流处理模型与批处理模型相反,流处理模型是一种实时处理数据的模型。

流处理模型将数据看作是连续流动的,数据可以立即处理并得到反馈。

这种模型适用于需要对数据做实时监控和反馈的场景,如实时数据分析、实时推荐等。

三、MapReduce模型MapReduce模型是一种用于大规模数据处理的模型。

它将数据分解成多个小的子任务,并在分布式系统中并行执行。

该模型有两个基本步骤:映射(Map)和归约(Reduce)。

映射将输入数据分解成多个键值对,然后归约将相同键的值进行合并和处理。

MapReduce模型适用于处理大规模的数据,并能有效地利用分布式计算资源。

四、分布式数据库模型随着数据量的不断增加,传统的数据库往往无法满足大规模数据处理的需求。

分布式数据库模型应运而生。

分布式数据库将数据存储在多个节点上,利用分布式计算的优势,同时读写多个节点上的数据。

这种模型适用于大规模数据存储和高并发读写的场景。

五、容错性模型容错性是分布式系统中的一个重要问题。

由于分布式系统中的节点数量众多且互相独立,节点的故障是难以避免的。

容错性模型致力于解决节点故障导致的数据丢失和系统不稳定的问题。

常见的容错性模型包括数据备份、冗余计算等。

六、任务调度模型在分布式系统中,任务的调度是一个关键问题。

任务调度模型致力于将任务合理地分配给各个节点,并保证任务的高效执行。

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
19
MZ案例介02—GN平台采集
从2个GN平台采集Gn原始数据, 将原始数据的文档合并,上限 为50个文档。每个文档的大小 约为200MB,合并后的文档上 限为10GB。合并后的文档上传 至HDFS平台。 上传的HDFS目录分别是 /tmp/gn/1和 /tmp/gn/2, 再 根据上传的时间点建立新的目 录.
RDMS
整个数据处理流程包括四部分: 第一部分是数据接入层,该部分从前端业务系统获取数据; 第二部分是最重要的storm实时处理部分,数据从接入层接入,经过实时处理后传入 数据落地层; 第三部分为数据落地层,该部分指定了数据的落地方式; 第四部分元数据管理器。
7
Storm实时计算业务接口
8
Storm实时计算具体业务需求
(1) 条件过滤
这是Storm最基本的处理方式,对符合条件的数据进行实时过滤,将符合条件的数据保存下来,
这种实时查询的业务需求在实际应用中是很常见的。
(2) 中间计算
我们需要改变数据中某一个字段(例如是数值),我们需要利用一个中间值经过计算(值比 较、求和、求平均等等)后改变该值,然后将数据重新输出。
(3) 求TopN
相信大家对TopN类的业务需求也是比较熟悉的,在规定时间窗口内,统计数据出现的TopN, 该类处理在购物及电商业务需求中,比较常见。
(4) 推荐系统
正如我架构图中画的那样,有时候在实时处理时会从mysql及hadoop中获取数据库中的信息, 例如在电影推荐系统中,传入数据为用户当前点播电影信息,从数据库中获取的是该用户之前的 一些点播电影信息统计,例如点播最多的电影类型、最近点播的电影类型,及其社交关系中点播
13
MediationZone--集中控制,分布执行
通过负载均衡网络硬件,或者大数据采 集清分平台的代理工作流方式实现负载均衡
14
MediationZone—批处理工作流
MZ工作流有三种不同的类型:批处理工作流程,实时工作流程,任务工作流程。
批处理工作流程是用来收集处理和分发基于文件的数据,也被称为离线模
11
MediationZone--集中控制,分布执行
MZ采用集中控制逻辑和分布式执行,这样可以解决垂直(硬件插槽 有限)和水平架构(数据一致性)的两个主要问题领域所带来的问题。
12
MediationZone--实时在线,主/备部署
当用户协议支持失效备援时,可以一起部署 平均恢复时间和客户设备失效备援时间一致 对用户体验的影响取决于传输层的处理能力
• 使用4核CPU,每个CPU的负荷量大致平均 • 3个Java处理进程 + 1个Java核心进程共耗内存13GB (虚拟机Vmware内存为16GB) • GPRS文档解析处理的主要负荷在CPU • GPRS和IMEI数据关联,汇总处理主要负荷在内存
使用的开发工具包开发的插件。
控制区包含所有的核心服务,为工作流提供运行时环境。开发工具包,包括一套标准化的API,可用于 扩展平台。 MZ100% 在Java下环境下开发和Java运行时环境的要求。MZ可以部署在两个数据库架构,Oracle标准版
或嵌入式替代。
MZ可以部署在广泛的硬件平台和操作系统,从高端服务器架构到一般商品硬件。
4
Storm和Hadoop角色对比
5
Storm和Hadoop角色对比
Storm 集 群 和 Hadoop 集 群 表 面 上 看 很 类 似 。 但 是 Hadoop 上 运 行 的 是
MapReduce jobs ,而在Storm 上运行的是拓扑(topology ),这两者之间 是非常不一样的。一个关键的区别是: 一个MapReduce job最终会结束,
易见,hadoop是无法满足这种场景下的要求的。
Storm 是实时计算(流)计算的典型代表, 2011 年, Twitter 开源了 Storm,为上述问题提供了良好的解决方案。
Storm关注的是数据多次处理一次写入,而hadoop关注的是数据一次
写入,多次处理使用(查询)。Storm系统运行起来后是持续不断的,而 hadoop往往只是在业务需要时调用数据。
Storm 只是实时计算的解决方案之一,后面我们介绍一款与实时
计算相关的产品,并且NotOnly实时计算,那就是MediationZone。
10
MediationZone系统架构
配置层包括每个服务供应商的具体要求相关的所有配置。 应用层提供的所有功能,可用于工作流配置。这包括关闭的,现成的代理商,以及自定义应用程序和
式。这些工作流程可配置为多线程执行先进先出的处理顺序和严格的交易边
界基于每个批处理
15
MediationZone—实时工作流
实时工作流使请求 / 回答与其他系统的在线处理。这些工作 流程,能独立执行路径,同时利用多线程执行模型大量的执行。
16
MediationZone—任务工作流
任务工作流用来执行一般的活动,如清理(ETL)或维护任务。一些系统的 任务是预先在 MZ中,可补充任何用户定义的活动。shell 脚本和SQL脚本可以 通过工作流执行计划和任务。
17
MediationZone—工作流开发管理
工作流开发简单快捷,采用手工拖拽设计流程,二次 开发基于JAVA、SQL、Shell等环境。
支持全流程的工作流管理、监控及维护。同时支持工
作流分组管理,根据时间模型设计出多个协同高效工种 的工种流组。
18
MZ案例介01—KPI计算
从海量基站文件中,找出覆盖高铁的所有基站 只对“高铁小区”的记录进行处理,按照省、市、小区id的方式进行汇总 汇总完毕后计算KPI 现有解决办法,各省分别处理,然后将结果传到总部再进行处理 使用MZ之后,直接放到总部进行处理,效率提高非常大
每秒处理 的数据量
24
MZ案例介04—GPRS数据处理
GPRS和IMEI数据关 联汇总处理流程
8,000 7,000 6,000 5,000
每秒处理 的数据量
4,000 3,000 2,000 1,000 -
3个并发流程
6个并发流程
9个并发流程
25
MZ案例介04—GPRS数据处理
ห้องสมุดไป่ตู้
MediationZone 處理解析
21
MZ案例介04—GPRS数据采集、汇总分析
用户需求
22
MZ案例介04—GPRS数据处理
MZ环境
23
MZ案例介04—GPRS数据处理
GPRS文件解 析划分流程
167,000 166,000 165,000 164,000 163,000 162,000 161,000 160,000 159,000 158,000 157,000 156,000 3个并发流程 6个并发流程 9个并发流程
GPRS和IMEI數據關聯,匯總處理 每小時處理2520萬數據
IBM x3755M3 每小時處理19億數據 - 2.1GHz 4路12核 - 128GB
每小時處理3600萬數據
26
MZ案例介04—GPRS数据处理
27
MZ案例介04—GPRS数据处理
28
MZ案例介04—GPRS数据处理
29
MZ案例介04—GPRS数据处理 负荷解析
计算任务给机器, 并且监控状态。 每一个工作节点上面运行一个叫做 Supervisor 的节点。 Supervisor 会
监听分配给它那台机器的工作,根据需要启动/关闭工作进程。每一个工
作进程执行一个topology的一个子集;一个运行的topology由运行在很多 机器上的很多工作进程组成。
6
Storm实时计算系统架构
两者关注及应用的方向不一样。
3
Storm架构及组件
Topology:storm中运行的一个实时应用 程序. Nimbus:负责资源分配和任务调度. Supervisor:负责接受nimbus分配的任 务,启动和停止属于自己管理的worker进 程.
Worker:运行具体处理组件逻辑的进程.
将用户的业务层需求转换为实时处理的具体模式。例如模仿 Hive提供一个
类Sql的业务接口,我们将一类数据在元数据管理器中描述是一个表,不同字
段是表中不同字段 select ----固定数据查询(异常或者脏数据处理),
max/min/avg----最大最小值
count/sum----求和或次数统计(比如pv等) count(distinct)----去重计数(典型的如UV)
而一个topology永远会运行(除非你手动kill掉)。
在Storm的集群里面有两种节点: 控制节点(master node)和工作节 点(worker node)。控制节点上面运行一个叫Nimbus后台程序,它的作
用类似Hadoop里面的JobTracker。Nimbus负责在集群里面分发代码,分配
order by----排序(取近访问的用户)
group by----聚类函数 order by----聚类后排序(如访问次数最多的topN商品) 这只是简单类比,我们可以将实时处理的业务需求转化为Sql相关语句,上 层执行类Sql语句,底层将其翻译成具体Topology组成及节点参数等。
Task:worker中每一个spout/bolt的线 程称为一个task. Spout:在一个topology中产生源数据流 的组件. Bolt:在一个topology中接受数据然后 执行处理的组件. Tuple:一次消息传递的基本单元. Stream grouping:消息的分组方法
分布式实时(流)计算框架
系统部(SE)--贺先智
2014-01-15
数据分析系统整体架构
2
引入实时计算的背景
相关文档
最新文档