万亿级实时流计算架构

合集下载

超级计算机系统架构分析

超级计算机系统架构分析
O 天河一号A
–2048颗我国仿制sun公司的UltraSparc T2处理器(飞腾FT-1000) 八核心处理器 –14336颗Intel Xeon X5670 2.93GHz六核心处理器 –7168块NVIDIA Tesla M2050高性能计算卡
自主研发的飞腾FT-1000八核心处理器
“天河一号A”研制之初,除使用了进口CPU和GPU 之外,其他核心器件、互联芯片均为我国自主研 制。随着科研人员的不懈努力,如今“超高性能 CPU”这 道难题也迎刃而解。国产飞腾FT-1000八 核芯片,由国防科技大学专门为“天河”系列计 算机量身定制,已达到了当今世界主流。据了解, 安装飞腾芯片后, 不仅“天河一号A”的峰值运算 速度将在目前每秒1206万亿次的基础上有所提升, 而且其实际运算速度也将提高到每秒千万亿次。 同时,由于关键芯片实现完全 “国产化”,也将 使“天河一号A”在确保信息安全方面拥有更多的 保证。
系统架构
O 组织架构
O 理论基础架构
O 软件架构
组织架构
O “天河一号”系统共有5120个图形加速处理器(GPU)和6144
个通用处理器(CPU),峰值速度达1206TFlops, 内存总容量为 98TB,Linpack实测性能为563.1TFlops。其计算量若由一台 微型计算机来执行大约连续计算160万年才能完成。“天河 一 号”是采用并行体系结构的超级计算机,采用的是AMD的 图形核心。其特殊之处在于多阵列、可配置、协同并行,实 现了“CPU+GPU”的异构协同计算,提 高了计算效能。 O “天河一号”超级计算机采用了多阵列、可配置、协同并行 体系结构,系统由计算阵列、加速阵列和服务阵列组成,其 中计算阵列、服务阵列分别由采用通用处理器 (CPU)的计算 节点机、服务节点机构成,加速阵列则由基于图形加速处理 器(GPU)的大量加速节点机构成,实现了“CPU+GPU”的异构 协同计算,提 高了计算效能。此外,“天河一号”采用了便 于维护和高密度的刀片式(Blade)结构,每个机位都有几十个 可热插拔的刀片,每个“刀片”实际上就相当于一 块计算机 主板,组成一台配置有处理器、内存等模块的节点计算机。

腾讯未来交通白皮书2

腾讯未来交通白皮书2

实时数字孪生
智能 感知
自主 学习
孪生 服务
全要素全时空 精准感知
预测式主动 精细管理
虚实结合动态 精确分析
孪生世界
机理模型+数据驱动模型
自主学习
实时计算
反馈激励
中微观一体化实景还原,虚实结合 预测推演,孪生验证
融合感知全场景全要素感知 AI行为检测、分析和预测
物理世界
模型
实时数字孪生,贯穿感知、计算、仿真推演到服务的全链路体系
养护:资产管理效益化
出行全链条服务基于互联网的C端信息发布与触达B端信息发布及高效管理服务智慧服务区
服务:用户体验品质化
运营:高效安全可持续
全天候一体化融合感知路网、路段和⻋道级监控协同式应急指挥调度高速自动在线计费及收费稽核
方案特色
解决问题
智慧高速:新技术赋能基础设施提质增效,推动路网管理和出行服务智能化
城市级数字车生活出行服务
实时公交/本地特色导航/路况千里眼/⻋位预约/道路通行预约+守法积星会员 体系+交通政务办理
便⺠政务:⻋驾管业务“一机办”移动出行:出行服务“一机享”数字消费:模范驾驶有奖励,“好用又好玩”
城市交通:应用案例
智能网联:智能网联深度赋能智慧交通,开放生态助力产业可持续发展
打造开放融合的泛V2X网联开放平台,体系化赋能智慧交通,助力产业可持续发展,构建可运营、可进化的智慧交通新生态
新范式
— 未来交通的全景图
腾讯交通123能力圈,共创未来交通生命体
腾讯交通 123能力圈
1 大系统
2 大优势
3 大能力
交通OS
实时孪生C端触达
时空计算数字底座
融合感知

全调度以太网技术架构

全调度以太网技术架构

全调度以太网技术架构白皮书1缩略语列表缩略语英文全名中文解释AI Artificial Intelligence人工智能AIGC AI-Generated Content人工智能生产内容CPU Central Processing Unit中央处理器DPU Data Processing Unit数据处理单元ECMP Equal Cost Multi Path等价多路径路由ECN Explicit Congestion Notification显式拥塞通告FC Fibre Channel光纤通道GPU Graphics Processing Unit图形处理器GSF Global Scheduling Fabirc全调度交换网络GSOS Global Scheduling Operating System全调度操作系统GSP Global Scheduling Processor全调度网络处理节点HoL Head-of-line blocking队首阻塞JCT Job Completion Time任务完成时间ML Machine Learning机器学习PFC Priority-based Flow Control基于优先级的流量控制PHY Physical端口物理层PKTC Packet Container报文容器RDMA Remote Direct Memory Access远程直接内存访问RoCE RDMA over Converged Ethernet融合以太网承载RDMA VOQ Virtual Output Queue虚拟输出队列DGSQ Dynamic Global Scheduling Queue动态全局调度队列1.背景与需求目前,AIGC(AI-Generated Content,人工智能生产内容)发展迅猛,迭代速度呈现指数级增长,全球范围内经济价值预计将达到数万亿美元。

在中国市场,AIGC的应用规模有望在2025年突破2000亿元,这一巨大的潜力吸引着业内领军企业竞相推出千亿、万亿级参数量的大模型,底层GPU算力部署规模也达到万卡级别。

阿里巴巴鹰眼技术解密

阿里巴巴鹰眼技术解密

阿⾥巴巴鹰眼技术解密作者|周⼩帆编辑|⼩智最新⼀代的阿⾥全链路监控系统鹰眼 3.0,同时将基础设施层、分布式应⽤层、业务逻辑层与客户端层进⾏了全链路跟踪;技术层⾯,鹰眼3.0 ⽇均处理万亿级别的分布式调⽤链数据,针对海量实时监控的痛点,对底层的流计算、多维时序指标与事件存储体系等进⾏了⼤量优化,同时引⼊了时序检测、根因分析、业务链路特征等技术,将问题发现与定位由被动转为主动。

注:本⽂整理⾃阿⾥巴巴技术专家周⼩帆在 ArchSummit 2017 深圳站上的演讲。

今天我讲的是应⽤分布式链路追踪技术。

业界⼤部分的应⽤分布式追踪的原理源⾃ Google 的⼀篇 Dapper 系统的论⽂,我们的鹰眼系统也不例外。

今天讲的这个议题和微服务框架是有⼀些关系的,⼤家可能听微服务相很多遍了,对微服务框架带来的好处也感同⾝受,⽐如说它提⾼了开发的效率,它具备更好的扩展性,这些好处⼤家也体会过了。

可是微服务其实是⼀把双刃剑,微服务同时也带来了⼀些问题,⽽这些问题也就是我们的鹰眼系统需要解决的问题。

本⽂分为三个部分,第⼀个是阿⾥巴巴的分布式追踪系统,也就是鹰眼系统的技术实现原理、基础功能以及在阿⾥的使⽤场景。

第⼆个想和⼤家分享⼀下这套系统背后的⼀些技术细节,包括流计算,存储的架构演进,我们踩过的⼀些坑、技术层⾯⼀些优化是什么样的,也会分享⼀下我们是如何对监控系统进⾏模块化改造的。

第三个就是我们如何把⼀个被动的监控系统转成⼀个主动发现问题的系统,这⼀块我们其实也是在做初步的尝试和探索,在做的过程中也希望跟⼤家⼀起分享,抛砖引⽟,交流⼀下经验。

分布式链路追踪技术原理微服务之熵微服务的好处已经不⽤多说,⽽微服务的坏处,⼤家看这张图就明⽩了。

这张图是 2012 年淘宝核⼼业务应⽤关系的拓扑图,还不包含了其他的⾮核⼼业务应⽤,所谓的核⼼业务就是和交易相关的,和钱相关的业务。

这张图⼤家可能看不清楚,看不清楚才是正常的,因为当时的阿⾥应⽤数量之多、应⽤间关系之混乱靠⼈⼯确实已经⽆法理清楚了。

用友能源

用友能源

的 数





数据元
探索分析
数据可视化
iUAP Datalnsight
智能分析
移动应用
3rd
决策
实时监控架构图
实时监 控层
SCADA 平台层
生 产 区
SCADA监控平台
内存存储、实时计算、全样全量采集
通讯管 理层
场站侧
电力专线\运营商专线
风机
变电站
一体交换机
功率预测
………
逆变器
管 理 区
网络安全
借力集控云,构建新能源全新价值体系
——用友新能源企业集控云整体解决方案介绍
目 录
CONTENTS
01 用友集团介绍 02 用友能源业务定位及介绍 03 集控云介绍 04 案例分享
05 集控云的价值
01
用友集团介绍
用友集团介绍
用友财务软件
(财务软件) 电算化
办公自动化 百亿级市场
部门级
1991
中国最大
财务软件公司
用友ERP
(企业管理软件与服务)
内部信息化
流程优化 千亿级市场
用友企业互联网服务
(软件、云服务、金融) 互联网化
商业创新 万亿级市场
社会级
企业级
2002
中国最大
ERP/管理软件公司
2016
亚太领先的企业与 公共组织软件、云 服务、金融服务提
供商
现在
致力于成为
全球领先的企业
与公共组织软件、 云服务、金融服
IaaS——云计算基础设施
任务调度
IoT中间件
弹性计算
存储
网络
数据库

工业互联网边缘计算节点架构白皮书

工业互联网边缘计算节点架构白皮书

工业互联网边缘计算节点架构白皮书技术创新,变革未来工业互联网边缘计算节点白皮书参与单位主要内容和定位价值本白皮书是第一本专门介绍用于工业场景的工业互联网边缘计算节点(即:工业边缘节点)的综述性文档,主要内容包括:•历史机遇:“新基建”和”工业互联网+“对边缘计算产业的影响,以及中国标准订立进展•挑战需求:边云协同背景下,工业边缘节点面临的挑战和需求(软硬件两方面)•探索尝试:工业边缘节点已有参考架构,产品现状和应用实践的尝试本白皮书可供对工业互联网感兴趣的终端工厂用户和普通读者快速了解工业边缘节点的概念和作用,把握未来智慧工业的发展趋势和方向;也可供工业互联网的系统集成商和软硬件产品提供商详细了解工业边缘节点的标准化进展、可用软硬件架构和典型产品现状,亦可根据实践案例,开发基于工业边缘节点的新产品和方案。

工业互联网介绍工业边缘节点概述工业边缘节点参考架构工业边缘节点应用实践目录市场趋势及相关政策市场趋势(2018-2020)•工业互联网经济增加值:1.42万亿元,2.13万亿元和3.1万亿元;•同比增长分别为:55.7%,47.3%,47.9%;•占GDP比重:1.5%,2.2%和2.9%;•对GDP增长贡献率:6.7%,9.9%和11%。

•全社会新增就业岗位:135万个,206万个和255万个中国信息通信研究院:2017-2020年我国工业互联网产业经济总体情况相关政策(2020)•十四五规划以及2035远景目标•政府工作报告•中央政治局会议纪要2020年工业互联网政策梳理融合发展及行业标准融合发展•“新基建”七大领域•工业互联网+概念•工业互联网+大数据/5G/人工智能行业标准•CCSA 下设工业互联网特设组ST8•工业互联网边缘计算总体架构与要求•边缘云、边缘网关、边缘控制器的层级化部署架构•“边缘计算标准件计划”中央电视台:“新基建”七大领域定义工业互联网特设组ST8在研标准一览挑战痛点行业共通•跨设备互联互通•跨软件格式互联互通•跨平台数据互联互通•数字化模型搭建迭代•整体安全性和可靠性角色差异•软硬件产品提供商:兼容成本vs.用户体验•系统集成商:标准化利用vs.定制化开发•工厂用户:已有产线利用率vs.柔性生产需求工业互联网介绍工业边缘节点概述工业边缘节点参考架构工业边缘节点应用实践目录作用及价值作用•提供互联互通机制•解决现场连接性问题•支持人工智能部署•支持实时控制部署价值•更快的响应速度•更低的网络使用率•更安全的数据保护•更高的可靠性工业互联网“端-边-网-云”简化模型工业级环境●产品外壳处做增强式设计●抗冲击、抗粉尘、防水防泼溅等。

全量系统业务战略架构图PPT,一眼掌握业务全貌


TEA设计系统
架构图
STEP 01
STEP 02
STEP 03
STEP 04
用户目标
价值观设计原则
设计模式
技术实现
用户访谈/工单收集/调研问卷
设计价值观 精确、高效、一致设计原则 掌控感 轻量感 专注感 系统性 可靠性 指引性
应用
提炼
腾讯云控制台配置系统私有化部署IDC管理系统
腾讯云助手云行业应用H5运营活动
数字化管理
数字化供应链
数据中台
数据后台
数据源
数据库
埋点采集
服务器日志
爬虫数据
大数据基础设施(计算和存储平台)
应用服务
开发套件
数据标准体系建设
数据治理平台
自助查询系统
敏捷开发平台
数据集成工具
应用数据层(ADS)
操作数据(ODS)
DWD(公共明细)
DWD(公共汇总)
数据地图
数据雪源
数据质量中心
数据资产中心
运维成本高:线网规模庞大,运维成本高,智能化提升迫在眉睫
跨系统联动困难:信息资源共享度和利用率低,系统联动困难
生产要素的全面解耦,资源开放共享,按需取用
统一物联化、组件化,零代码灵活编排业务场景
能力开放平台,快速构建业务场景,持续迭代升级
统一的数字化转型平台、智慧化升级的科学框架
四项核心能力
设备快速接入
运营手段(运营)
如何让别人知道产品?
成功经验
渠道投放
内容运营
看视频返现
冷启动让潜在用户下载产品
产品根据自己的调性设计运营方案
Zynn最初的营销手段
创作者激励计划
辅助功能跟进

超级计算机的设计和应用

超级计算机的设计和应用一、超级计算机的定义和特点超级计算机是指能够进行大规模高速的数值运算和数据处理的计算机系统。

与普通计算机相比,超级计算机具有更多的处理器、更大的内存、更高的带宽以及更强的计算能力。

超级计算机通常采用分布式结构,将多个处理器组成一个集群进行协同计算,因此其运行速度最高可以达到每秒万亿次浮点运算(FLOPS)。

二、超级计算机的设计1. 处理器设计超级计算机处理器的设计是其最关键的一环。

目前主流的超级计算机处理器采用的是向量计算架构,即将数据打包成一个向量,经过一次指令即可完成多个数据的并行计算,从而提高计算效率。

同时,超级计算机也采用了多核处理器的设计,将单一处理器升级为多核心,同时采用多线程技术,提高处理器的利用率。

2. 存储器设计超级计算机的存储器设计也是其重要的设计要素之一。

超级计算机需要具备块级分布式存储结构,通过网络将不同节点的存储器相连,实现数据共享和通信。

由于超级计算机需要处理的数据量非常巨大,因此存储器也必须具有较高的容量和带宽,以支持大规模的高速数据交换。

3. 网络设计超级计算机的强大计算和数据处理能力离不开高速的网络支持。

超级计算机采用的网络结构分为两种,一种是高速计算网,用于实现节点之间的数据传输和通信,另一种则是高速存储网,连接存储器等外部设备。

三、超级计算机的应用领域1. 学术研究超级计算机在学术研究方面发挥着重要作用。

例如在物理、化学、生物、气象等领域,超级计算机已成为模拟和计算的重要工具,有利于科学家加深对自然界规律的认识和理解。

2. 工业制造工业制造领域也是超级计算机应用的一个重要领域。

在汽车、航空航天、能源、电子等行业中,超级计算机可以模拟燃烧过程、气动力特性、结构强度等关键技术,优化生产流程和提高产品质量。

3. 金融服务超级计算机在金融领域的应用也越来越广泛。

超级计算机可以帮助金融机构处理大量的金融数据,提升风险控制能力、更好地预测市场趋势和优化投资组合。

阿里万亿交易量级下的秒级监控

阿里万亿交易量级下的秒级监控本文的内容是偏工程的:怎么在万亿交易量下实现足够实时的秒级监控?先介绍一下监控系统Sunfire,它是阿里集团的业务监控系统,前身是蚂蚁的xflush, 支持应用标准化监控,如操作系统,JVM,中间件等。

除此之外还有更强大的日志监控能力,大多数业务的监控指标都从应用的日志中抽取。

目前覆盖了集团几乎所有BU 和绝大多数业务,每分钟处理TB 级日志。

下面将从以下四个方面进行讲解:∙架构∙规模与挑战∙技术选择∙方向每分钟处理这么大的TB级日志量,我们是怎么设计架构去实现它的呢?1.1、传统日志监控上图是传统的日志监控,现在大多数监控平台采用的一个方案。

Agnet 检测日志变化增量推送,经过消息中间件如kafka,流式计算引擎如Jstorm/flink 去消费kafka 产生出来的数据,中间的流式计算可能有多步的处理,最后流向DB,很传统的架构。

这种架构会有一个问题就是:某一分钟的数据,何时可以发报警?1.2、流式计算的问题Process Time 超过Event Time Window我们最早尝试了上面传统的架构,但是,会有一个问题,我到底什么时候这个数据才能发报警呢?因为这个架构最麻烦的是我不知道什么时候数据已经全部到齐了。

如果机器很多,agent 返回数据的时间并不确定, 要保证所有机器日志采齐了数据才准确,这在流式计算里很难处理。

这是个经典的问题, 有两篇文章很详细的讲解了流式计算中如何解决这种问题:https:///ideas/the-world-beyond-batch-streaming-101https:///ideas/the-world-beyond-batch-streaming-102但是数据丢了就是丢了, 无论怎么样就是不准了,也很难拍出一个delay 的时间确保数据可以用来发报警, 那么当数据不准时, 我们能不能知道不准了呢? 为了解决这个问题我们走了另一条路线: 让主动权留在服务端。

云计算的六种架构浅析 .doc

云计算的六种架构浅析云计算,应当高度贴合网络未来更高层次的发展趋势,着力于提高网络数据处理和存储能力,致力于低碳高效的利用基础资源。

具体而言,应着重从高端服务器、高密度低成本服务器、海量存储设备和高性能计算设备等基础设施领域提高云计算数据中心的数据处理能力。

云计算要求基础设施具有良好的弹性、扩展性、自动化、数据移动、多租户、空间效率和对虚拟化的支持。

那么,云计算环境下的数据中心基础设施各部分的架构应该是什么样的呢?云计算架构分为服务和管理两大部分。

在服务方面,主要以提供用户基于云的各种服务为主,共包含3个层次:基础设施即服务IaaS、平台即服务PaaS、软件即服务SaaS。

在管理方面,主要以云的管理层为主,它的功能是确保整个云计算中心能够安全、稳定地运行,并且能够被有效管理。

其总体架构如下图。

根据长城电子公司多年的经验,为满足云计算服务弹性的需要,云计算机房采用标准化、模块化的机房设计架构。

模块化机房包括集装箱模块化机房和楼宇模块化机房。

集装箱模块化机房在室外无机房场景下应用,减轻了建设方在机房选址方面的压力,帮助建设方将原来半年的建设周期缩短到两个月,而能耗仅为传统机房的50%,可适应沙漠炎热干旱地区和极地严寒地区的极端恶劣环境。

楼宇模块化机房采用冷热风道隔离、精确送风、室外冷源等领先制冷技术,可适用于大中型数据中心的积木化建设和扩展。

网络系统总体结构规划应坚持区域化、层次化、模块化的设计理念,使网络层次更加清楚、功能更加明确。

数据中心网络根据业务性质或网络设备的作用进行区域划分,可从以下几方面的内容进行规划。

1)按照传送数据业务性质和面向用户的不同,网络系统可以划分为内部核心网、远程业务专网、公众服务网等区域。

2)按照网络结构中设备作用的不同,网络系统可以划分为核心层、汇聚层、接入层。

3)从网络服务的数据应用业务的独立性、各业务的互访关系及业务的安全隔离需求综合考虑,网络系统在逻辑上可以划分为存储区、应用业务区、前置区、系统管理区、托管区、外联网络接入区、内部网络接入区等。

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
10
实践经验(6):数据延时的计算方法力
【问题描述】在现网调测和后期运行的过程中,如何确定数据延时的“分布”
2类值得关注的数据延时
从Flume进,到Kafka出 从Flume进,到Storm输出最终 结果(端到端延时)
【基本思想】Flume源端随机 生成Bolt所发射的数据量,由此可以发现整个集群当前的数据处理量 当某个Spout或者Bolt代码中有Exception抛出时,会在Storm UI中统一显示出来
Redis
Redis进程的CPU使用率
14
11
实践经验(7):原始数据的清洗与过滤
【问题描述】处理的数据量严重偏少,统计出来的流量值只有其他途径的1/2”
在Spout端统计Storm处理的数据总量、过滤数量及由Spout最终Emit出来的量, 以文件的形式保存,并通过脚本将数据进行统计处理
习惯与“脏数据”共事,对大数据从业者而言很重要!
12
病毒短信检测
高铁沿线
2
平台架构
3
平台与数据规模
APP# 3
CPU CORE 480
数据量 约50TB/天
记录数 约1200亿/天
4
Storm的主要组件
Storm平台的 物理结构
一个T opology的 逻辑结构
5
实践经验(1):从SDTP到Flume Source:透传 Vs. 落盘
【问题描述】在Flume出现流量瓶颈,说的更准确一些,是在Flume的前一级服 务器出现数据堆积
性能
健壮性




8
实践经验(4):数据倾斜与分片
【问题描述】因某个Bolt处理的数据量特别大,导致集群性能严重不足。
【例】如果计算每个地市的总 流量(某省的话,总共是11个 地市),一种做法是直接根据 地市对数据进行分片,然后直 接汇总。但是由于某些大城市 的流量特别大,从而导致处理 这些地区Bolt的压力特别大, 从而大幅度延缓了整个 Toplogy的处理性能。
流计算系统的监控
重点关注
Flume、Kafka、Storm、Redis等各主要进程运行是否正常?
数据在“流转”过程中在任何节点都不会出现“积压”? 混入的测试数据的计算结果是否正确?
Flume
数据积压
测试记录
Kafka
Kafka Manager Kafka Offset Monitor
Storm:Storm UI
【解决办法】 先CELL级别汇总,
后地市级别二次汇总
【额外的性能开销?】
9
实践经验(5):Redis的吞吐能力
【问题描述】因Redis读写能力不足,导致批量写Redis的Bolt出现性能瓶颈。
内存操作 单线程 非阻塞IO(EPOLL)
如何定位
Storm UI中“读写Redis”的Bolt会频繁抛出类似“Redis连接池满,无法获得连 接”、“Redis连接被复位”的Exception Redis采用的是单线程模型,因此,当出现性能瓶颈时,会有一个CPU CORE 的使用率接近100%,这个可以通过“mpstat -P ALL”看到
实践经验(8):基站小区活跃用户数的统计方法
【问题描述】在尽可能少消耗系统资源前提下,在误差允许的范围内,实时计 算基站小区的活跃用户数(类似于UV的实时计算?)
最准确的方法——用HashSet 保存手机号码
Bloom Filter 资源消耗 误差 统计结果的 可聚合性 HyperLogL og
13
透传,单线程 落盘,多线程
6
实践经验(2):Kafka的流量“陷阱”
【问题描述】Kafka出现瓶颈
7
实践经验(3):运算结果的更新方式:增量式 Vs. 覆盖式
【问题描述】严重的结果稳定性问题。以某省会城市的5分钟流量为例,比如一 般都在800GB上下,但有时候某一次计算结果突然下降到400GB左右 在不考虑数据延迟的情况下,为了计算5分钟的流量,我们需要在Bolt中设置 一个变量hz_bytes以保存中间结果。比如在10:03的时候,hz_bytes中实际保 存了10:00 ~ 10:03的该市流量。当10:05时,该Bolt就将hz_bytes的值输出到 Redis中。 如果这个Bolt所在的Executor在10:03挂掉,Storm会重新选择一个Worker,并 重新调度该Bolt——这是Storm的一个最基本的HA机制。但是当Bolt重新启动 后,hz_bytes却已经丢失了之前暂存的10:00~10:03流量。 所以,最后写出到Redis的,实际上是10:03~10:05的流量。这就是结果中流量 会突然减少的原因。 增量式 覆盖式
万亿级实时流计算架构
技术创新,变革未来
流计算在运营商中有什么用途?
应用领域:时延敏感的应用领域 网络层面:
实时性能监控 故障预测
位置信息服务:
实时人流(标签) 实时标签
用户行为预测
1
大数据在运营商网络维护和优化中的应用举例
故障双向定界
高铁模拟路测
短信中 心
疑似病毒URL清单
360确认结果 进一步处置: 信安中心进 一步确认、 提醒、直接 封堵
相关文档
最新文档