Memcached 原理剖析
Memcached使用及原理

研发管理部 陈海涛 2011-06-10
2014-6-25
1
什么是Memcached
Memcached是(运营LiveJournal的技术团队)开发的一套分布式内存对象
缓存系统。常用于减少数据库负载,提升性能。 社区网站主页:/ 开发团队主页:/ 项目主页:/
结果:老数据留在尾部(tail)。
2014-6-25 © 2004 - 2010 UC Mobile
16
Set时LRU
set时要为当前key分配内存 先从本slab队尾检查是否有过期数 据,共检查50条。
是否查到过期数据, 查到则淘汰1条后中止。 NO 新分配内存是否OK (是否还有可用内存)? NO 是否设置了-M参数表示不能踢 出有效数据 YES NO YES 内存分配失 败,返回出错 YES
2014-6-25 © 2004 - 2010 UC Mobile
7
分布式-客户端实现
2014-6-25 © 2004 - 2010 UC Mobile
8
分布式-一致性hash
2014-6-25 © 2004 - 2010 UC Mobile
9
内存管理-术语
2014-6-25 © 2004 - 2010 UC Mobile
2014-6-25 © 2004 - 2010 UC Mobile
6
常用优化参数
-f <factor> chunk size的增长因子(合理范围 1.05~2,默认:1.25) -t <num> memcached启动的工作线程数,默 认为4,建议不要超过系统CPU的个数。 -I <num>[k|K|m|M] 改变slab page的容量 大小,以调整ITEM容量的最大值,默认为1MB。 不能少于1024bytes(即1K),不能大 于128MB。memcached不推荐大于1MB。
memcached原理

memcached原理Memcached是一种分布式内存对象缓存系统,常常被用于动态Web 应用中减轻数据库负载。
它将数据存储在内存中,并通过哈希算法对其进行管理,应用程序可以直接从内存中读取缓存数据,达到加速访问的目的。
Memcached的运行原理:它使用一个客户端-服务端的架构模型,其中客户端与服务器之间通过TCP/IP协议进行通信。
使用者需要将需要存储的key-value对发送到Memcached服务器,然后服务器将这些数据存储在内存中,当调用者需要获取相应的数据时,直接从内存中读取。
如果数据不存在,Memcached将返回一个空响应。
Memcached的特点:1.高速缓存:Memcached是内存中的缓存系统,访问速度非常快;2.内存管理:Memcached使用LRU算法释放内存中不在使用的数据;3.可扩展:Memcached可以非常容易的扩展。
为什么要使用Memcached?1.加速访问:Memcached非常适合访问频繁但数据变化不步的情况,通过加速访问可以提高网站的响应速度。
2.降低数据库压力:将一部分数据放入Memcached缓存中,当这些数据正在使用时,可以减轻数据库的负载,提高数据库的性能。
3.可扩展性:通过横向扩展,可以使Memcached轻松适应大量数据的存储要求,同时保持高速缓存的性能。
如何使用Memcached?1.安装配置:将Memcached服务器安装在适当的机器上,并根据需要进行相应的配置。
2.使用客户端:可以使用各种语言的客户端库来使用Memcached,包括PHP,Python,Java等。
3.使用API调用:通过API直接从客户端调用Memcached提供的方法来获取需要的数据。
总之,Memcached是一个非常实用的高速缓存系统,可以用于加速Web应用程序的访问,并降低数据库的负载。
它的运行原理简单易懂,安装和配置也非常容易,是一个非常值得使用的缓存系统。
Memcached源码剖析笔记

Memcached源码剖析笔记XguruMemcached是一个自由、源码开放、高性能、分布式内存对象缓存系统,目的在于通过减轻数据库负载来使动态Web应用程序提速。
目录1.背景 (3)2.memcached的安装 (4)3.memcached的配置 (5)4.memcached的使用 (6)4.1.存储命令 (7)4.2.读取命令 (8)4.3.删除命令 (8)4.4.高级命令 (9)4.5.其他命令 (10)5.Memcached内部工作机制 (11)5.1.Memcached基本的数据结构 (11)5.2.基本设计概念和处理流程 (12)5.3.内部Hash机制 (15)5.3.1.Hash函数及冲突解决 (15)5.3.2.HashTable主要函数 (15)5.4.slab内存处理机制 (17)5.4.1.slab主要函数 (17)5.4.2.slab机制中所采用的LRU算法 (19)5.5.控制item各种函数 (20)5.6.守护进程机制 (22)5.7.Socket处理机制 (23)15.7.1.Unix域协议 (23)5.7.2.TCP/UDP协议 (24)5.8.多线程处理机制 (25)5.9.事件处理机制 (25)6.未完善之处 (27)7.参考文献 (28)21.背景Memcached 是一个高性能的分布式内存对象缓存系统,用于动态Web应用以减轻数据库负载。
它通过在内存中缓存数据和对象来减少读取数据库的次数,从而提供动态、数据库驱动网站的速度。
Memcached基于一个存储键/值对的hashmap。
Memcached是一个自由、源码开放、高性能、分布式内存对象缓存系统,目的在于通过减轻数据库负载来使动态Web应用程序提速。
Memcached是一个在内存中对任意的数据(比如字符串,对象等)所使用的key-value 存储。
数据可以来自数据库调用,API调用,或者页面渲染的结果。
MemCache详细解读

MemCache详细解读MemCache是什么MemCache是⼀个⾃由、源码开放、⾼性能、分布式的分布式内存对象缓存系统,⽤于动态Web应⽤以减轻数据库的负载。
它通过在内存中缓存数据和对象来减少读取数据库的次数,从⽽提⾼了⽹站访问的速度。
MemCaChe是⼀个存储键值对的HashMap,在内存中对任意的数据(⽐如字符串、对象等)所使⽤的key-value存储,数据可以来⾃数据库调⽤、API调⽤,或者页⾯渲染的结果。
MemCache设计理念就是⼩⽽强⼤,它简单的设计促进了快速部署、易于开发并解决⾯对⼤规模的数据缓存的许多难题,⽽所开放的API使得MemCache能⽤于Java、C/C++/C#、Perl、Python、PHP、Ruby等⼤部分流⾏的程序语⾔。
另外,说⼀下MemCache和MemCached的区别:1、MemCache是项⽬的名称2、MemCached是MemCache服务器端可以执⾏⽂件的名称MemCache访问模型为了加深理解,我模仿着原阿⾥技术专家李智慧⽼师《⼤型⽹站技术架构核⼼原理与案例分析》⼀书MemCache部分,⾃⼰画了⼀张图:特别澄清⼀个问题,MemCache虽然被称为"分布式缓存",但是MemCache本⾝完全不具备分布式的功能,MemCache集群之间不会相互通信(与之形成对⽐的,⽐如JBoss Cache,某台服务器有缓存数据更新时,会通知集群中其他机器更新缓存或清除缓存数据),所谓的"分布式",完全依赖于客户端程序的实现,就像上⾯这张图的流程⼀样。
同时基于这张图,理⼀下MemCache⼀次写缓存的流程:1、应⽤程序输⼊需要写缓存的数据2、API将Key输⼊路由算法模块,路由算法根据Key和MemCache集群服务器列表得到⼀台服务器编号3、由服务器编号得到MemCache及其的ip地址和端⼝号4、API调⽤通信模块和指定编号的服务器通信,将数据写⼊该服务器,完成⼀次分布式缓存的写操作读缓存和写缓存⼀样,只要使⽤相同的路由算法和服务器列表,只要应⽤程序查询的是相同的Key,MemCache客户端总是访问相同的客户端去读取数据,只要服务器中还缓存着该数据,就能保证缓存命中。
Memcached分布式缓存简介

一.什么是MemcachedMemcached 是一个高性能的分布式内存对象缓存系统,用于动态Web应用以减轻数据库负载。
它通过在内存中缓存数据和对象来减少读取数据库的次数,从而提供动态、数据库驱动网站的速度。
相信很多人都用过缓存,在.net 中也有内置的缓存机制,还有很多第三方工具如apache,nginx等可以做静态资源的缓存,同时我们也可以制定自己的缓存机制,缓存数据库查询的数据以减少对数据库的频繁操作。
但是很多时候我们总是感觉这些缓存总不尽人意,Memcached可以解决你不少的烦恼问题。
最少在我的学习中解决了我不少问题,所以决定记录下来分享。
Memcached基于一个存储键/值对的hashmap。
其守护进程是用C写的,但是客户端可以用任何语言来编写(本文使用C#作为例子),并通过memcached协议与守护进程通信。
可能这些东西都太高深了,我们暂不做研究。
二.分布式缓存其实 Memcached作为一个分布式缓存数据服务,但是每个服务之间根本没有进行相互通信,这里可能与我理解的分布式有点区别,可能是我才疏学浅,也可能是每个人思考问题的角度不同。
Memcached 客户端就是通过一种分布式算法将数据保存到不同的Memcached服务器上,将数据进行缓存。
分布式缓存,可以而知memcached可以进行大数据量的缓存。
这点可以弥补我们之前很多人都遇到的将数据缓存到应用服务器上,而且只能缓存少量数据,否则对应用服务器的影响非常大。
Memcached应用机制图:这个图是有点简陋了,但是问题还是能够描述的清楚的,缓存机制的基本原理就是先查询数据保存到memcached中,地址在此请求就直接从Memcached缓存中取数据,这样就可以减少对服务器请求压力。
三.Memcached 特征(1)协议简单: 不使用复杂的xml格式,而是使用文本格式(2)基于libevent的事件处理机制 (不懂)(3)内置内存存储方式: 数据存在在内存中,所以重启机器会导致数据丢失(4)Memcached相互不通信的分布式: Memcached 服务器之间不会进行通信,数据都是通过客户端的分布式算法存储到各个服务器中四.Memcached的安装首先这里是在windows系统上做测试,Memcached在linux等非windows平台上性能会更高。
memcached内存管理与删除机制及服务器实现 -回复

memcached内存管理与删除机制及服务器实现-回复memcached是一款高性能的分布式内存对象缓存系统,常用于动态网站的加速和负载均衡。
作为一种缓存系统,它的内存管理和删除机制对于系统的性能和稳定性非常重要。
本文将一步一步回答有关memcached的内存管理与删除机制及服务器实现的内容。
一、memcached的内存管理机制1. 内存分配memcached使用一个内存池来管理内存,即在启动时分配一块可用于缓存的大内存块,然后根据需要将其划分为多个固定大小的内存块,这样可以提高内存使用效率。
在内存分配时,memcached使用slab分配器来实现。
slab分配器将内存块按照不同大小的chunk(或者称为slab class)分成多个组,每个组里的chunk大小都会是这个组的最小chunk大小的倍数。
这种分配方式可以降低内存碎片,提高内存利用率。
2. 内存回收memcached使用了简单的LRU算法(最近最少使用算法)来进行内存回收。
当内存达到上限时,会根据数据的使用频率来决定哪些数据应该被淘汰。
LRU算法会在内存不足时,将最近最少被访问的数据从缓存中删除,以腾出内存供新数据使用。
3. LRU算法和内存回收LRU算法是一种常用的缓存淘汰算法,它根据数据的访问时间来判断哪些数据是冷数据(很久没有被访问的数据),从而可以将这些冷数据淘汰出缓存。
在memcached中,LRU算法的具体实现是通过维护一个LRU队列来实现的,最前面的元素代表最近最少访问的数据,最后面的元素代表最近最频繁访问的数据。
当内存不足时,memcached会从LRU队列末尾开始淘汰数据,直到满足内存需求为止。
二、memcached的删除机制1. 手动删除memcached提供了delete命令来手动删除指定的键值对。
使用delete 命令可以通过键来删除对应的缓存数据。
2. 过期删除memcached支持设置键值对的过期时间,当数据的过期时间到达时,memcached会自动删除对应的数据。
Memcached数据库缓存

Memcached数据库缓存Memcached⼀、Memcached简介Memcached是⼀个开源的,⽀持⾼性能,⾼并发的分布式内存缓存系统,由C语⾔编写,总共2000多⾏代码。
从软件名称上看,前3个字符“Mem”就是内存的意思,⽽接下来的后⾯5个字符“cache”就是缓存的意思,最后⼀个字符d,是daemon的意思,代表是服务器端守护进程模式服务。
Memcached服务分为服务器端和客户端两部分,其中,服务器端软件的名字形如Memcached-1.4.24.tar.gz,客户端软件的名字形如Memcache-2.25.tar.gz Memcached的作⽤传统场景中,多数Web应⽤都将数据保存到关系型数据库中(例如:MySQL),Web服务器从中读取数据并在浏览器中显⽰。
但随着数据量的增⼤,访问的集中,关系型数据库的负担就会出现加重,响应缓慢,导致⽹站打开延迟等问题,影响⽤户体验。
这时就需要Memcached软件出马了。
使⽤Memcached的主要⽬的是,通过在⾃⾝内存中缓存关系型数据库的查询结果,减少数据库被访问的次数,以提⾼动态Web应⽤的速度,提⾼⽹站架构的并发能⼒和可扩展性。
Memcached服务的运⾏原理是通过在事先规划好的系统内存空间中临时缓存数据库中的各类数据,以达到减少前端业务服务对数据库的直接⾼并发访问,从⽽提升⼤规模⽹站集群中动态服务的并发访问能⼒。
-⽣产场景的Memcached服务⼀般被⽤来保存⽹站中经常被读取的对象或数据,就像我们的客户端浏览器也会把经常访问的⽹页缓存起来⼀样,通过内存缓存来存取对象或数据要⽐磁盘存取快很多,因为磁盘是机械的,因此,在当今的IT企业中,Memcached的应⽤范围很⼴泛。
互联⽹常见内存缓存服务软件⼆、Memcached的⽤户与应⽤场景 1、Memcached常见⽤途⼯作流程Memcached是⼀种内存缓存软件,在⼯作中经常⽤来缓存数据库的查询数据,数据被缓存在事先与分配的Memcached管理的内存中,可以通过API或命令的⽅式存取内存中缓存的这些数据,Memcached服务内存中缓存的数据就像⼀张巨⼤的hash表,每条数据都是以key-value对的形式存在。
memcached工作原理

memcached工作原理
memcached是一款高性能的分布式内存缓存系统,主要用于减轻数据库负载,提高应用程序的性能。
其工作原理如下:
1. 客户端向memcached服务器发送请求,请求可以是获取或设置缓存数据。
2. 如果请求是获取缓存数据,memcached服务器首先检查是否有该数据的缓存副本,如果有,则返回该数据给客户端。
3. 如果请求是设置缓存数据,memcached服务器将数据存储到其内存中,并设置相应的索引。
4. 当memcached服务器的内存空间不足时,会采用LRU(最近最少使用)算法将一些旧的缓存数据删除,以腾出更多的内存空间。
5. 当多个memcached服务器组成一个分布式缓存集群时,客户端需要通过一致性哈希算法来选择具体的服务器,以保证缓存数据的一致性。
6. 当客户端对缓存数据进行修改时,需要同时更新所有memcached服务器上的缓存数据,以保证数据一致性。
总之,memcached工作原理简单、高效,可以提高应用程序的响应速度和吞吐
量,同时减少数据库的负载。
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
余问题都解决了,空间利用率会大大提升。
修改 slabs_clsid 函数,让它直接返回一个定值(比如 1 )
unsigned int slabs_clsid(size_t size) {return 1;}
修改slabs_init函数,去掉循环创建所有classid属性的部分,直接添加
slabclaபைடு நூலகம்s[1]:
• 数据存储方式:Slab Allocation • 数据过期方式:Lazy Expiration + LRU
7
Memcache原理分析
数据存储方式:Slab Allocation
Slab Alloction 构造图
Slab Allocator的基本原理是按照预先 规定的大小,将分配的内存分割成特定 长度的块,以完全解决内存碎片问题。
Memcached 入门
作者:
2009-01
Tech Talk 目录索引
Memcache是什么 Memcache,ehcache的比较 Memcache原理分析 Memcache安装和基本配置 Memcache的在大型网站中的使用策略 Memcache的一些经验和技巧 Memcache一致性算法(consistent hasing)
一个id,在数据量非常大的情况下,slab链会很长(因为所有数据都挤在一条
链上了),遍历起来的代价比较高。
前面介绍了三种空间冗余,设置chunk长度等于item长度,解决了第一种空间
浪费问题,不预申请空间解决了第二种空间浪费问题,那么对于第一种问题
(slab内剩余)如何解决呢,这就需要修改POWER_BLOCK常量,使得每一
15
Memcache原理分析:
常量POWER_BLOCK 1048576 默认slab大小 常量CHUNK_ALIGN_BYTES (sizeof(void *)) 保证chunk大小是这个数值的整数倍,防止越界(void *的长度在不同系统上不 一样,在标准32位系统上是4) 常量ITEM_UPDATE_INTERVAL 60 队列刷新间隔 常量LARGEST_ID 255 最大item链表数(这个值不能比最大的classid小) 变量hashpower(在1.1中是常量HASHPOWER) 决定hashtable的大小 根据上面介绍的内容及参数设定,可以计算出的一些结果: 1、在memcached中可以保存的item个数是没有软件上限的,之前我的100万的 说法是错误的。 2、假设NewHash算法碰撞均匀,查找item的循环次数是item总数除以 hashtable大小(由hashpower决定),是线性的。 3、Memcached限制了可以接受的最大item是1MB,大于1MB的数据不予理会。 4、Memcached的空间利用率和数据特性有很大的关系,又与 DONT_PREALLOC_SLABS常量有关。 在最差情况下,有198个slab会被浪费 (所有item都集中在一个slab中,199个id全部分配满)。
3
Memcache, EhCache的比较
项目
分布式
Memcache
不完全,集群默认不实现
EhCache
支持
集群 持久化
效率 容灾 缓存数据方式
缓存过期移除策略 缺点 优点
可通过客户端实现
支持
可通过第三方应用实现,如sina研发的memcachedb, 将cache的数据保存到Berkerly DB
个slab大小正好等于chunk长度的整数倍,这样一个slab就可以正好划分成n个
chunk。这个数值应该比较接近1MB,过大的话同样会造成冗余,过小的话会
造成次数过多的alloc,根据chunk长度为200,选择1000000作为
POWER_BLOCK的值,这样一个slab就是100万字节,不是1048576。三个冗
//得出的结果是1,那么对应的机器就是 node[id] == node[1]
13
Memcache原理分析:
基于客户端的Memcached分布式
写入操作
读取操作
14
Memcache原理分析:
Memcache的理论参数计算方式
常量REALTIME_MAXDELTA 60*60*24*30 最大30天的过期时间 conn_init()中的freetotal(=200) 最大同时连接数 常量KEY_MAX_LENGTH 250 最大键长 settings.factor(=1.25) factor将影响chunk的步进大小 settings.maxconns(=1024) 最大软连接 settings.chunk_size(=48) 一个保守估计的key+value长度,用来生成id1中的chunk长度(1.2)。id1的 chunk长度等于这个数值加上item结构体的长度(32),即默认的80字节。 常量POWER_SMALLEST 1 最小classid(1.2) 常量POWER_LARGEST 200 最大classid(1.2)
Chunk:用于缓存记录的内存空间。
Slab Class:特定大小的chunk的组。
memcached根据收到的数据的大小,选 择最适合数据大小的slab。 memcached中保存着slab内空闲chunk的 列表,根据该列表选择chunk,然后将 数据缓存于其中。
9
Memcache原理分析:
数据存储方式:Slab Allocation
CODE:
slabclass[1].size = 200;
//每chunk200字节
slabclass[1].perslab = 5000; //1000000/200
18
Memcache安装、配置和使用:
• Memcache 安装 • Memcache 配置 • Memcache 结合java客户端的使用
• LRU memcached会优先使用已超时的记录的空间,但即使如此,也会发生追加新记录时空间不 足的情况,此时就要使用名为 Least Recently Used(LRU)机制来分配空间。顾名思义, 这是删除“最近最少使用”的记录的机制。因此,当memcached的内存空间不足时(无法 从slab class 获取到新的空间时),就从最近未被使用的记录中搜索,并将其空间分配 给新的记录。从缓存的实用角度来看,该模型十分理想。
Slab Alloction 缺点
这个问题就是,由于分配的是特定长度的内存,因此无法有效利用 分配的内存。例如,将100字节的数据缓存到128字节的chunk中,剩 余的28字节就浪费了。
10
Memcache原理分析:
数据过期方式
• Lazy Expiration memcached内部不会监视记录是否过期,而是在get时查看记录的时间戳,检查记录是否过 期。这种技术被称为lazy(惰性)expiration。因此,memcached不会在过期监视上耗费 CPU时间。
2
Memcache是什么:
Memcache是国外社区网站 LiveJournal 的开发团队开发的高性能的分布式内 存缓存服务器。一般的使用目的是,通过缓存数据库查询结果,减少数据库访 问次数,以提高动态Web应用的速度、提高可扩展性。目前全世界不少人使用 这个缓存项目来构建自己大负载的网站,来分担数据库的压力。
Memcache原理分析:
要定义DONT_PREALLOC_SLABS来避免另外的预分配浪费。另一种方法是
建立一个hash关系,来从item确定classid,不能使用长度来做键,可以使用key
的NewHash结果等不定数据,或者直接根据key来做hash(定长数据的key也一
定等长)。这里简单起见,选择第一种方法,这种方法的不足之处在于只使用
11
Memcache原理分析:
基于客户端的Memcached分布式
12
Memcache原理分析:
基于客户端的Memcached分布式
//按照Key值,获取一个服务器ID int getServerId(char *key, int serverTotal) {
int c, hash = 0; while (c = *key++) {
高
支持。持久化到本地硬盘,生成一 个.data和.index文件。Cache初始化 时会自动查找这两个文件,将数据放 入cache
高于memcache
可通过客户端实现
支持
缓存在memcached server向系统申请的内存中 LRU
可以缓存在内存(jvm)中,也可以缓存 在 硬盘。通过CacheManager管理 cache.多个CacheManager可管理多个 cache
LRU,FIFO,LFU
功能不完善,相对于ehcache效率低
简单,灵活,所有支持socket的语言都可以编写他的 客户端
只适用于java体系,只能编写java客 户端
效率高,功能强大
4
Memcache原理分析
Memcache工作方式?
5
Memcache原理分析
6
Memcache原理分析
自主的内存存储处理
Slab Allocation的原理相当简单。 将 分配的内存分割成各种尺寸的块 (chunk),并把尺寸相同的块分成组 (chunk的集合)
8
Memcache原理分析
数据存储方式:Slab Allocation
Slab Classes 分配图
Page:分配给Slab的内存空间,默认是 1MB。分配给Slab之后根据slab的大小 切分成chunk。
Memcache可以对任意多个连接,使用非阻塞的网络IO。由于它的工作机制是 在内存中开辟一块空间,然后建立一个HashTable,Memcache自管理这些 HashTable. Memcache的官方网站:/memcached/ 为什么会有Memcache和Memcached两种名称? 其实Memcache是这个项目的名称,而Memcached是它服务器端的主程序文 件名。