亿级用户下的新浪微博平台架构

合集下载

产品需求-新浪微博用户等级体系分析

产品需求-新浪微博用户等级体系分析

新浪微博用户等级体系分析,用户可以通过访问这个页面,查看自己的等级,并了解等级升级规则。

笔者拿自己的一个帐号观察发现当前等级已经是LV6,而不是LV0/1。

说明这个前两年等级计算可能之前就已经存在,一直在后台计算数据,只是从未向用户演示过而已。

通过上面截图,我们可以得到,微博等级包含以下几个表现形式:1.当前等级2.活跃天数3.等级计算规则4.升级剩余天数,可以在页面中看到每个等级level对应的基本逐渐活跃天数需要,还可以看到非常活跃天数的累积规则:可以看到活跃平均值的看到获得有三种方式:1.登录后在线时长2.发表微博奖励3.连续登录奖励好吧,这里暂且成长是否参考了其他公司或产品的用户等级激励不谈体系,但是从这里的计算规则来看,这里还是费了一番心思的——在提高用户活跃度上有很多思考和动作。

那么现在新浪微博上是否只有这一种用户激励成长体系呢?下面就确知的几种激励,做一个简单的梳理。

1.V认证用户:新浪微博在最早推出的时候,就拥有了V认证用户,一度,那个黄色的小V让无数人竟折腰。

在某种场合,加V用户自夸俨然是一种炫耀的资本,尤其是一些小有名气又不太知名权威人士的社会人士,一度将微博作为提升自身形象和知名度的一个重要途径。

因为加V代表着身份,代表着话语权,代表着是少数的人则,代表着“精英”身份……但最近和老朋友聊天,已经有很多朋友陆续说加V已经不值钱了,甚至有的想去V。

记得最早听说加V的条件是——500总和人以上公司总监级别人士才可以凭借身份证明重要信息加V认证。

但是目前仍然经常看到以下某某公司销售、某某公司运维字样的认证某时描述,此时笔者当更愿意相信加V认证已经变成一种很贴近草根的注重用户激励方式。

2.微博达人:这应该是最早面向草根的用户激励草根体系吧,根据官方显示的能够帮助资料,达人只需顾及一定条件如:绑定手机、真实头像、粉丝数达到100等即可申请。

而且具有完整的系数和升级规则——但貌似这一规则没有在网站上公示,我们只找到以下一段手写:“达人积分是根据作为微博达人在微博上的活跃度(登陆、发原创微博、评论)和社区产品活跃度(微群、活动)的使用情况和积分规则,系统自动统计计算出来的,可以在对个人微博首页(我的微博)页面查询,达为也可以在微博达人首页查询“。

6大科技公司组织架构

6大科技公司组织架构

封面作者:PanHongliang仅供个人学习6月,Web设计师Manu Cornet在自己的博客上,画了一组美国科技公司的组织结构图。

在他笔下,亚马逊等级森严且有序。

谷歌结构清晰,产品和部门之间却相互交错且混乱。

Facebook架构分散,就像一张散开的网络。

微软内部各自占山为王,军阀作风深入骨髓。

苹果一个人说了算,而那个人路人皆知。

庞大的甲骨文,臃肿的法务部显然要比工程部门更加重要。

真是一组有趣的图,它很快风靡网络。

6月29日,它传入中国,在新浪微博上被转发了一万多次。

据此,《第一财经周刊》也尝试着炮制了一份中国主要的科技公司的结构图—百度、腾讯、华为、联想、阿里巴巴、新浪。

结果发现,它们也是彼此风格迥异。

不同的公司成长历史、不同的业务架构和不同的管理风格,让它们的架构图也呈现出明显的不同。

华为:华为与很多强调组织结构稳定的企业不同,华为建立的是一种可以有所变化的矩阵结构。

换句话说,华为每次的产品创新都肯定伴随组织架构的变化,而在华为每3个月就会发生一次大的技术创新。

这更类似于某种进退自如的创业管理机制。

一旦出现机遇,相应的部门便迅速出击、抓住机遇。

在这个部门的牵动下,公司的组织结构发生一定的变形—流程没有变化,只是部门与部门之间联系的次数和内容发生了变化。

但这种变形是暂时的,当阶段性的任务完成后,整个组织结构又会恢复到常态。

阿里巴巴:你能想象没有马云的阿里巴巴吗?尽管2007年阿里巴巴B2B业务上市后,马云开始练太极、习道学、悟阴阳,但是,在阿里巴巴马云的影子似乎无时无处不在。

现在,他又向公众展示了一条完美的产业链。

万网提供域名,并量身定制出两套网站—B2B和B2C,再通过阿里巴巴网站和淘宝商城、淘宝集市三大平台,精确对接细分用户。

散在全国的7个百万平方M以上的阿里大仓、若干个小仓,由物流宝打通的从供应商到阿里大小仓直至用户之间的物流数据流,囊括大阿里战略中所有的业务。

而马云,正如他自己所说,“已经融化在这家公司里。

亿级用户下的新浪微博平台架构

亿级用户下的新浪微博平台架构

团队职责
• 业务模块化、 • 提供标准化 服务化 的技术框架 • 业务流程优 • 解决系统高 化 并发、高可 • 业务容量评 用、高可扩 估 展问题
1. 平台组织架构(物理)与技术体系(逻辑)从无缝结合,提 高了团队协作的效率,降低了沟通成本。 2. 12个区间分别聚焦于各自的侧重点,指明长期的发展方向。
Web(JS、CSS、HTML) Android iPhone
接入层
Web(php)
MAPI
Push 网关
后台
搜索
微博平台(Java)
大数据
平台架构演变
2009 - 2010
2011 - 2014
2014 – 将来
节点B rpc1
SR SS
CS
SR
节点D rpc3
4节点模型: CS = Client Send SR = Server Receive SS = Server Send CR = Client Receive
亿级用户下的新浪微博平台架构
@卫向军_微博
Agenda
1. 微博的技术架构 2. 微博平台的技术挑战 3. 微博平台架构演变与第三代技术架构体系 4. Watchman-分布式服务追踪系统 5. Feed多级双机房缓存系统 6. 致谢
微博技术架构
客户端
流量切换
5
RPC MCQ 短链 用户 发号器 Config
8
服务状态
11
服务依赖
服务层
调用链
发布和灰度
3 资源层
MC HBase
6
Cache组件
9
Error
12
扩容与缩容

新浪微博架构与平台安全演讲稿

新浪微博架构与平台安全演讲稿
数据
• 重新思考 Rest API
• 大部分调用都是空返回 • 大部分时间在处理不必要的询问 • 无法实时投递 • 存在请求数限制( limit) (rate
如何解决
• 新一代推送接口(Stream API) (Stream • 采用推送的方式
• 有新数据服务器立即推送给调用方 • 无数据则不消耗流量 • 客户端实现更简单

数据压力及峰值
• •
将数据、功能、部署尽可能拆分 部署尽可能拆分 提前容量规划
平台化需求
• Web 系统
• 有用户行为才有请求
• API 系统
• 轮询请求 • 峰值不明显 • 用户行为很难预测
• 系统规模持续增大 • 平台化需求 • 新的架构如何设计 新的架构如何设计?
• “Break large complex systems
• 类似 mysql seconds behind master
• “Many services are written to alert
operations on failure and to depend upon human intervention for recovery, about 20% of the time they will make mistakes.
• 2. YMB is designed for wide wide-area
replication. This isolates individual PNUTS clusters from dealing with update between regions”
新推送架构
现状
• API 大部分请求都是为了获取最新
微博方案

新浪拆为门户板块与微博板块,门户板块由杜红负责

新浪拆为门户板块与微博板块,门户板块由杜红负责

前段时间关于杜红将接任曹国伟新浪CEO之职的传言四起。

随着今天曹国伟一封CEO来信发出,该传言被证明至少在相当一段时期内不会为真了。

而这封信也表明,新浪前段时间,的确是在进行紧密集中的高层分工与架构调整。

曹国伟表明,这是“新浪多年来第一次根据战略发展的需要进行的架构重建”。

调整的总体思路是,新浪拆为门户板块与微博板块,门户板块由杜红负责(这可能就是杜红将任新浪CEO传言的由来),微博板块由曹国伟负责,王高飞任总经理。

For personal use only in study and research; not for commercial use可以说,杜红接管了老新浪。

这个动作,可以被看作是新浪加大微博与门户、移动与传统互联网的切分力度,也可以看作是对微博商业化更决绝的尝试。

此前,微博商业化的一个难题就是微博广告客户很大程度是由门户客户迁移过来,这实际上不利于微博广告产品与客户系统的独立进化,对新浪来说,也像是左手倒右手的无谓游戏。

可以想见,经此切分后,明年新浪营销体系会经受不小的调整与重新磨合。

另外一个亮点是,重建后,新浪新设了独立的产品创新部门,负责创新产品项目的孵化,由公司副总裁彭少彬负责。

另外新浪现在才提出明年将“移动优先”的战略,似乎真心晚了点?以下为曹国伟信的全文:各位同事,2012年即将结束,新的财年马上就要开始,感谢大家在过去一年里的辛勤工作,也借此机会跟大家分享一下公司2013年的战略思考和相关业务和组织架构的调整。

在2012年,我们取得了不少成绩,但也有不小的遗憾。

无论是门户还是微博,无论在移动端还是PC端,我们的用户和流量都在进一步增长,而移动端的增长尤为显著。

微博商业化也有了一个良好的开端。

回顾2012年,移动互联网的发展势头异常迅猛,而围绕移动互联网的产品和模式的创新与迭代正在迅速地改变互联网的竞争格局。

我们原来从PC向移动延伸的业务架构以及按职能线划分的组织架构无论在战略布局还是在执行效率上已经很难适应移动时代的市场竞争。

微信政务平台建设项目背景与可行性分析

微信政务平台建设项目背景与可行性分析

微信政务平台建设项目背景与可行性分析(一)项目背景1、政府信息化总体情况随着信息技术的迅猛发展,特别是互联网技术的普及与应用,推进政府部门办公自动化、网络化、电子化以及全面信息共享已是大势所趋。

2011年2月19日,某某在某党校省部级主要领导干部社会管理及其创新专题研讨班开班式上提出“进一步加强和完善信息网络管理,提高对虚拟社会的管理水平,健全网上舆论引导机制。

”2011年5月30日中共某政治局召开会议,某再次强调,要“完善信息网络服务管理,营造良好社会环境”。

党的“十七大”报告中提出,要“全面认识工业化、信息化、城镇化、市场化、国际化深入发展的新形势新任务,深刻把握我国面临的新课题、新矛盾”,说明某对信息化给予了高度的重视。

2013年10月15日,《国务院办公厅关于进一步加强政府信息公开回应社会关切提升政府公信力的意见》发布,意见从平台建设、机制建设和保障措施方面提出要求。

其中要求,各地区各部门应积极探索利用政务微博、微信等新媒体,及时发布各类权威政务信息,尤其是涉及公众重大关切的公共事件和政策法规方面的信息,并充分利用新媒体的互动功能,以及时、便捷的方式与公众进行互动交流。

同时中还明确要求,加强政府信息上网发布工作,以数字化、图表、音频、视频等方式予以展现,使政府信息传播更加可视、可读、可感,进一步增强政府网站的吸引力、亲和力。

由上可见,中国政务信息化在信息化时代中是取得了一定成就的,但也存在着不少需要改进之处。

目前,政府信息系统大多建立在独立封闭的体系中,从而造成了信息服务落后、办公业务事务处理迟缓、信息和技术屏障等问题,这就需要一个无缝的、协同的技术形态,从而建立能够沟通、联动、兼容的移动政务平台。

2、微信公众平台微信是腾讯公司推出的一款通过网络快速发送语音短信、视频、图片和文字,支持多人群聊的手机软件,具有零资费、跨平台沟通、显示实时输入状态等功能,也更灵活、智能,且节省资费。

微信公众平台是腾讯公司在微信的基础上新增的功能模块,这一平台的一大特点在手机订阅账号,用户在使用过程中仅需通过自主“关注”“订阅”,信息就可直达用户的手机桌面,更适合“一对一”的精准传递消息。

微博架构方案

微博架构方案
-采用分布式搜索引擎,如Elasticsearch;
-提供微博内容全文搜索,优化用户体验;
-实现实时搜索,提高搜索效率。
四、网络安全与数据保护
1.网络安全
-部署防火墙、入侵检测系统,防止恶意攻击;
-使用安全协议,如HTTPS,保障数据传输安全;
-实施严格的权限管理,防止内部数据泄露。
2.数据保护
-对用户敏感数据进行加密存储和传输;
-分析监控数据,优化系统性能。
六、实施与验收
1.实施计划
-制定详细的项目实施计划,明确时间节点、责任人和验收标准;
-按照实施计划,分阶段推进项目实施;
-组织技术培训,确保项目团队具备实施能力。
2.验收标准
-系统稳定性:确保99.99%的在线时间;
-性能指标:满足业务需求,响应时间不超过500ms;
-数据安全:无数据泄露事件发生;
微博架构方案
第1篇
微博架构方案
一、项目背景
随着互联网的快速发展,社交媒体已经成为人们日常生活中不可或缺的部分。微博作为国内领先的社交媒体平台,为广大用户提供了一个实时信息分享、互动交流的场所。为了满足日益增长的用户需求,保障平台稳定、高效运行,现需对微博平台架构进行优化升级。
二、方案目标
1.提高系统稳定性:确保平台在高并发、高负载情况下,仍能稳定运行,降低故障率。
(2)采用分布式设计,提高系统性能,确保高并发场景下的稳定运行。
(3)引入负载均衡技术,合理分配请求,提高资源利用率。
2.数据库设计
(1)采用关系型数据库存储用户数据,如MySQL、Oracle等。
(2)采用NoSQL数据库存储非结构化数据,如MongoDB、Redis等。
(3)建立合理的索引策略,提高数据查询速度。

大型互联网公司新浪微博技术架构分析与设计

大型互联网公司新浪微博技术架构分析与设计

大型互联网公司新浪微博技术架构分析与设计新浪微博,作为当今国内最大的基于社交媒体之一,我们就不用在这赘述了。

今天我站在架构的角度上,从技术跟设计方面给大家通俗的讲一下,如果不对,请指出,我本是事实的角度,一定回承认,改正,谢谢。

12月31日跨年夜,网友再次刷新微博发送峰值。

根据微博方面的数据,2016年第一分钟,微博用户共发出883536条微博,超过去年同期。

跨年期间,相关微博互动量达1.38亿,2947万用户发布4414万条微博,整体阅读量达到106亿。

微博推出的#哈喽2016#新年许愿活动,两天里收集了166万多条网友的新年愿望,阅读量超过3亿。

如此巨大的用户规模和业务量,需要高可用(HA)、高并发访问、低延时的强大后台系统支撑。

微博平台第一代架构为LAMP架构,数据库使用的MyIsam,后台用的php,缓存为Memcache。

随着应用规模的增长,衍生出的第二代架构对业务功能模块化、服务化、组件化,后台系统从php替换为Java,逐渐形成面向服务的SOA架构(面向服务的架构),在很长一段时间支撑微博平台业务发展。

SOA架构在此基础上又经过长时间的重构、线上运行、思索与沉淀,平台形成了第三代架构体系。

我们先看一张微博的核心业务图(如下),是不是非常复杂,但这已经是一个简化的不能再简化的业务图啦,第三代技术体系就是为了保障在微博核心业务上快速、高效、可靠的发布新产品新功能。

新浪微博心业务图第三代技术体系微博平台的第三代技术体系,使用正交分解法建立模型,在水平方向,采用典型的三级分层模型,即接口层、服务层与资源层,在垂直方向,进一步细分为业务架构、技术架构、监控平台与服务治理平台,接着看一下平台的整体架构图。

第三代技术体系正交分解法将整个图分解为3*4=12个区域,每一个区域代表一个水平维度与一个垂直维度的交点,相应的定义这个区域的核心功能点,比如区域5主要完成服务层的技术架构,下面详细介绍水平方向与垂直方向的设计原则,尤其重点介绍4、5、6中的技术组件及其在整个架构体系中的作用。

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

亿级用户下的新浪微博平台架构
架构之路(系列三)卫向军新浪微博
引言
新浪微博在2014年3月公布的月活跃用户(MAU)已经达到1.43亿,2014年新年第一分钟发送的微博达808298条,如此巨大的用户规模和业务量,需要高可用(HA)、高并发访问、低延时的强大后台系统支撑。

微博平台第一代架构为LAMP架构,数据库使用的MyIsam,后台用的php,缓存为Memcache。

随着应用规模的增长,衍生出的第二代架构对业务功能模块化、服务化、组件化,后台系统从php替换为Java,逐渐形成面向服务的SOA 架构,在很长一段时间支撑微博平台业务发展。

在此基础上又经过长时间的重构、线上运行、思索与沉淀,平台形成了第三代架构体系。

我们先看一张微博的核心业务图(如下),是不是非常复杂,但这已经是一个简化的不能再简化的业务图啦,第三代技术体系就是为了保障在微博核心业务上快速、高效、可靠的发布新产品新功能。

第三代技术体系
微博平台的第三代技术体系,使用正交分解法建立模型,在水平方向,采用典型的三级分层
模型,即接口层、服务层与资源层,在垂直方向,进一步细分为业务架构、技术架构、监控平台与服务治理平台,接着看一下平台的整体架构图。

如上图所示,正交分解法将整个图分解为3*4=12个区域,每一个区域代表一个水平维度与一个垂直维度的交点,相应的定义这个区域的核心功能点,比如区域5主要完成服务层的技术架构,下面详细介绍水平方向与垂直方向的设计原则,尤其重点介绍4、5、6中的技术组件及其在整个架构体系中的作用。

水平分层
水平维度的划分,在大中型互联网后台业务系统的设计中非常基础,在平台的每一代技术体系中都有体现,这里还是简单介绍一下,为后续垂直维度的延伸讲解做铺垫:
接口层主要实现与Web页面、移动客户端的接口交互,定义统一的接口规范,平台最核心的三个接口服务分别是内容(Feed)服务、用户关系服务以及通讯服务(单发私信、群发、群聊)。

服务层主要把核心业务模块化、服务化,这里又分为两类服务,一类为原子服务,定义是不依赖任何其他服务的服务模块,比如常用的短链服务、发号器服务都属于这一类,图中使用泳道隔离,表示它们的独立性,另外一类为组合服务,通过各种原子服务和业务逻辑的组合,完成的Composite服务,比如Feed服务、通讯服务除了本身的业务逻辑,还依赖于短链、用户、以及发号器服务。

资源层主要数据模型的存储,包含通用的缓存资源Redis和MC,以及持久化数据库存储MySQL、HBase,或者分布式文件系统TFS以及Sina S3服务。

水平分层有一个特点,依赖关系都是从上往下,上层的服务依赖下层,下层的服务不会依赖上层,构建了一种简单直接的依赖关系。

与分层模型对应的,微博系统中的服务器主要包括三种类型:前端机(提供API 接口服务),队列机(处理上行业务逻辑,主要是数据写入),存储(mc、mysql、mcq、redis 、HBase 等)。

垂直延伸技术架构
随着业务架构的发展和优化,平台研发实现了许多卓越的中间件产品,用来支撑核心业务,这些中间件由业务驱动产生,随着技术组件越来越丰富,形成完备的平台技术框架,大大提升了平台的产品研发效率和业务运行稳定性。

区别于水平方向上层依赖下层的关系,垂直方向以技术框架为地基支撑点,向两侧驱动影响业务架构、监控平台、服务治理平台,下面介绍一下其中的核心组件。

接口层WebV4框架
接口框架简化和规范了业务接口开发工作,将通用的接口层功能打包到框架中,采用了Spring的面向切面(AOP)设计理念。

接口框架基于jersey 进行二次开发,基于annotation定义接口的URL和参数,并且内置Auth、频次控制、访问日志和降级功能,同时还有自动化的Bean-json/xml序列化接口框架用来支撑接口层平台的监控与服务治理系统。

服务层框架
服务层主要涉及RPC远程调用框架以及消息队列框架,这是微博平台在服务层使用最为广泛的两个框架。

MCQ消息队列
消息队列提供一种先入先出的通讯机制,在平台内部,最常见的场景是将数据的落地操作异步写入队列,队列处理程序批量读取并写入DB,消息队列提供的异步机制加快了前端机的响应时间,其次,批量的DB操作也间接的提高了DB操作性能,另外一个应用场景,平台通过消息队列,向搜索、大数据、商业运营部门提供实时数据。

微博平台内部大量使用的MCQ(Simple Queue Service Over Memcache)消息队列服务,基于MemCache协议,消息数据持久化写入Berkeley,只有get/set两个命令,MCQ有丰富的client library,同时也非常容易做监控(stats queue),在微博线上运行多年,性能比通用的MQ高很多倍。

Motan RPC框架
微博的Motan RPC服务,底层通讯引擎采用了Netty网络框架,序列化协议支持Hessian 和Java序列化,通讯协议支持Motan、http、tcp、mc等,Motan框架在内部大量使用,在系统的健壮性和服务治理方面,有较为成熟的技术解决方案,健壮性上,基于Config配置管理服务实现了High Availability与Load Balance策略(支持灵活的FailOver和FailFast HA策略,以及
Round Robin、LRU、Consistent Hash等Load Balance策略),服务治理方面,生成完整的服务
调用链数据,服务请求性能数据,响应时间(Response Time)、QPS以及标准化Error、Exception 日志信息。

资源层框架
资源层的框架非常多,有封装MySQL与HBase的Key-List DAL中间件、有定制化的计数组件,有支持分布式MC与Redis的Proxy,在这些方面业界有较多的经验分享,我在这里分享一下平台架构的对象库与SSD Cache组件。

对象库
对象库支持便捷的序列化与反序列化微博中的对象数据,序列化时,将JVM内存中的对象序列化写入在HBase中并生成唯一的ObjectID,当需要访问该对象时,通过ObjectID读取,对象库支持任意类型的对象,支持PB、JSON、二进制序列化协议,微博中最大的应用场景将微博中引用的视频、图片、文章统一定义为对象,并抽象出标准的对象元数据Schema,对象的内容上传到对象存储系统(Sina S3)中,对象元数据中保存Sina S3的下载地址。

SSD Cache
随着SSD硬盘的普及,其优越的IO性能被越来越多的替换传统的SATA和SAS磁盘,常见的应用场景有三种:1)替换MySQL数据库的硬盘,目前社区还没有针对SSD优化的MySQL 版本,即使这样,直接升级SSD硬盘也能带来8倍左右的IOPS提升;2)替换Redis的硬盘,提升其性能;3)用在CDN中,加快静态资源加载速度。

微博平台将SSD应用在分布式缓存场景中,将传统的Redis/MC + Mysql方式,扩展为Redis/MC + SSD Cache + Mysql方式,SSD Cache作为L2缓存使用,第一降低了MC/Redis成本过高,容量小的问题,也解决了穿透DB带来的数据库访问压力。

垂直的监控与服务治理
随着服务规模和业务变得越来越复杂,即使业务架构师也很难准确的描述服务之间的依赖关系,服务的管理运维变得越来难,在这个背景下,参考google的dapper和twitter的zipkin,平台实现了自己的大型分布式追踪系统WatchMan。

WatchMan大型分布式追踪系统
如其他大中型互联网应用一样,微博平台由众多的分布式组件构成,用户通过浏览器或移动客户端的每一个HTTP请求到达应用服务器后,会经过很多个业务系统或系统组件,并留下足迹(footprint)。

但是这些分散的数据对于问题排查,或是流程优化都帮助有限。

对于这样一种典型的跨进程/跨线程的场景,汇总收集并分析这类日志就显得尤为重要。

另一方面,收集每一处足迹(footprint)的性能数据,并根据策略对各子系统做流控或降级也是确保微博平台高可用的重要因素。

要能做到追踪每个请求的完整调用链路;收集调用链路上每个服务的性能数据;能追踪系统中所有的Error和Exception;通过计算性能数据和比对性能指标(SLA)再回馈到控制流程(control flow)中,基于这些目标就诞生了微博的Watchman 系统。

其系统设计一个核心原则就是低侵入性(non-invasivenss):作为非业务组件,应当尽可能少侵入或者不侵入其他业务系统,保持对使用方的透明性,可以大大减少开发人员的负担和接入门槛。

基于此考虑,所有的日志采集点都分布在技术框架中间件中,包括接口框架、RPC框架以及其他资源中间件。

WatchMan由技术团队搭建框架,应用在所有业务场景中,运维基于此系统完善监控平台,业务和运维共同使用此系统,完成分布式服务治理,包括服务扩容与缩容,服务降级,流量切换,服务发布与灰度。

现在,技术框架在平台发挥着越来越重要的作用,驱动着平台的技术升级、业务开发、系统运维服务,本文限于篇幅限制,没有展开介绍,后续会不断的介绍核心中间件的设计原则和系统架构。

参考资料
正交分解法
jersey框架
weibo-watchman系统。

相关文档
最新文档