CACHE方案作业

合集下载

cache命中率例题

cache命中率例题

cache命中率例题缓存命中率是指在缓存系统中请求的对象在缓存中已经存在的概率。

当请求的对象在缓存中存在时,就可以直接从缓存中取出数据,而无需访问主存或者远程服务器,从而加快了数据的获取速度。

缓存命中率可以影响系统的性能和用户体验。

高命中率可以减少对底层存储系统的访问,节省了网络带宽,减少了延迟,提高了系统的响应速度。

另一方面,低命中率意味着大量的请求需要从主存或者远程服务器中获取数据,增加了网络带宽的占用和延迟,导致系统的响应速度变慢,影响用户体验。

要提高缓存命中率,需要从以下几个方面进行考虑和优化:1. 缓存策略选择:- 最常见的缓存策略是LRU(Least Recently Used),即最近最少使用。

这种策略会将最长时间未被访问的数据从缓存中淘汰,从而给新的数据腾出空间。

其他常见的策略还包括LFU(Least Frequently Used),即最不经常使用,以及FIFO(First In, First Out),即先进先出。

选择适合应用场景的缓存策略可以提高命中率。

- 可以考虑使用一些高级的缓存策略,如热点缓存、分布式缓存等。

热点缓存指的是将热点数据放入缓存中,以应对高频访问的情况。

分布式缓存可以将缓存数据分散存储在多个节点上,提高缓存容量和并发能力。

2. 缓存预热:- 在系统启动或者重启时,可以提前加载一些常用的数据到缓存中,以提高命中率。

可以通过定时任务或预热接口来实现。

3. 缓存更新策略:- 当缓存中的数据被更新时,需要及时将新数据写入缓存中,以确保缓存中的数据和底层存储的数据一致。

可以采用主动更新策略,即在数据更新时直接更新缓存;或者采用延迟更新策略,即等到下次访问时再更新缓存。

4. 缓存容量评估:- 针对不同的应用场景,需要评估缓存的容量。

容量太小会导致频繁的缓存淘汰和缓存失效,从而降低命中率;容量太大则会浪费内存资源。

可以通过监控缓存的使用情况,分析数据的访问模式来确定合适的缓存容量。

cache相关概念及工作原理介绍

cache相关概念及工作原理介绍

cache相关概念及工作原理介绍【原创版】目录一、Cache 的概念二、Cache 的作用三、Cache 的工作原理四、Cache 的类型与结构五、Cache 的应用场景正文一、Cache 的概念Cache,即高速缓存,是一种存储技术,它位于主存与 CPU 之间,作用是提高 CPU 访问存储器的速度。

Cache 可以看作是主存的一个高速副本,它将主存中频繁访问的数据复制到自身,当 CPU 需要再次访问这些数据时,可以直接从Cache 中获取,从而减少了 CPU 与主存之间的访问延迟。

二、Cache 的作用Cache 的主要作用是提高 CPU 的运行效率。

随着 CPU 处理速度的提升,主存的访问速度逐渐成为系统性能的瓶颈。

通过使用 Cache,可以减少 CPU 等待主存读写完成的时间,从而提高 CPU 的执行效率。

三、Cache 的工作原理Cache 的工作原理主要包括两个方面:一是缓存策略,即如何判断哪些数据需要被缓存;二是替换策略,即当 Cache 空间不足时,如何选择淘汰哪些缓存数据。

1.缓存策略缓存策略主要根据程序的访问模式来判断。

一般来说,缓存策略可以分为以下三种:- 时域局部性(Temporal Locality):程序在一段时间内多次访问相同的数据。

这种局部性可以通过缓存来提高访问速度。

- 空间局部性(Spatial Locality):程序在访问一个数据时,很可能还会访问其附近的数据。

这种局部性可以通过缓存来提高访问速度。

- 随机访问(Random Access):程序访问的数据与缓存中存储的数据无关,这种访问模式无法通过缓存来提高访问速度。

2.替换策略当 Cache 空间不足时,需要选择一些缓存数据进行替换。

替换策略主要有以下几种:- 最近最少使用(Least Recently Used,LRU):选择最近最少使用的数据进行替换。

- 时间戳(Timestamp):记录每个数据在 Cache 中的时间,选择最早进入Cache 的数据进行替换。

存储管理习题和答案作业

存储管理习题和答案作业

第5章一.选择题(40题)1.主存用来存放__D_。

A.程序B.数据C.微程序D.程序和数据2.下列存储器中,速度最慢的是_C__。

A.半导体存储器B.光盘存储器C.磁带存储器D.硬盘存储器3.某一SRAM芯片,容量为16KB×1位,则其地址线有__A__。

A.14根B.16K根C.16根D.32根4.下列部件中,存取速度最慢的是_B__。

A.光盘存储器B.CPU存储器C.软盘存储器D.硬盘存储器5.在主存和CPU之间增加Cache的目的是_C__。

A.扩大主存的容量B.增加CPU中通用寄存器的数量C.解决CPU和主存之间的速度匹配D.代替CPU中的寄存器工作6.计算机的存储器采用分级存储体系的目的是__D_。

A.便于读/写数据B.减小机箱的体积C.便于系统升级D.解决存储容量、价格与存取速度间的矛盾7.某SRAM芯片,其容量为1KB×8位,加上电源端和接地端后,该芯片的引出线的最少数目应为__A__。

A.23B.25C.50D.208.在Cache的地址映射中,若主存中的任意一块均可映射到Cache内的任意一块的位置上,则这种方法称为__A__。

A.全相联映射B.直接映射C.组相联映射D.混合映射9.处理机有32位地址,则它的虚拟地址空间为_B__字节。

A.2GBB.4GBC.100KBD.640KB10.虚拟内存的容量只受__D_的限制。

A.物理内存的大小B.磁盘空间的大小C.数据存放的实际地址D.计算机地址字长11.以下_B__不是段式存储管理系统的优点。

A.方便编程B.方便内存管理C.方便程序共享D.方便对程序保护12.在可变分区分配方案中,最佳适应法是将空闲块按_C__次序排序。

A.地址递增B.地址递减C.大小递增D.大小递减13.在分区存储管理方式中,如果在按地址生序排列的未分配分区表中顺序登记了下列未分配分区:1-起始地址17KB,分区长度为9KB;2-起始地址54KB,分区长度为13KB;现有一个分区被释放,其起始地址为39KB,分区长度为15KB,则系统要_C__。

cache的写策略

cache的写策略

cache的写策略Cache的写策略对于提高系统的性能和数据的访问速度非常重要。

下面我们将详细介绍几种常见的Cache写策略。

一、Write-through写策略:Write-through写策略是指,每次有数据存入Cache时,同时也会存入主存中。

这种写策略实现简单,数据一旦写入Cache,就一定会写入主存,不会丢失数据。

但是由于每次操作都需要将数据写入主存,会带来一定的延迟,当主存的带宽无法支撑高速Cache的写入时,性能可能会降低。

二、Write-around写策略:Write-around写策略是指,每次有数据存入Cache时,直接存储在主存中,不写入Cache。

这种写策略适用于需要快速读取数据,但写操作不太频繁的场景。

由于数据需要经过主存才能进入Cache,所以写操作的延迟会与主存的带宽有关。

三、Write-back写策略:Write-back写策略是指,每次有数据存入Cache时,先存储在Cache中,等到Cache的一块被替换时,将数据写回主存。

这种写策略相较于Write-through和Write-around写策略,可以大大减少写入主存的次数,提高写入数据的效率和速度。

但是由于数据在Cache中存在时间较长,需要一定的机制来保证数据的一致性,比如在Cache中标记某个数据块为“dirty”,表示该块中的数据已经被修改,需要写回主存。

四、Write-invalidate写策略:Write-invalidate写策略是指,在Cache中有数据被修改并写回主存后,该数据块会被标记为“invalid”,表示当前Cache中的数据已经过时,需要重新从主存中读取。

这种写策略的缺点是需要频繁从主存中读取数据,可能会降低Cache的效率和速度。

但是由于无需维护“dirty”位或其他数据一致性机制,所以比较适用于写操作不频繁的场景。

以上是常见的Cache写策略。

在实现Cache写策略时,需要根据实际场景选择合适的策略。

p2p cache网络缓存解决方案

p2p cache网络缓存解决方案

webcache 网络缓存解决方案一、 项目概述随着3G 和宽带接入的高速发展,移动和固网用户的数量及带宽都有很快的增长。

如此庞大的用户需求强烈刺激各类信息业务的发展,对IP 网络的结构和容量都提出很高的挑战。

由于目前国内的源站服务器大都部署在中国电信、中国联通的IDC 数据中心机房内,这势必带来了三个个问题:1、 中国移动和中国电信、中国联通的互联互通上存在带宽瓶颈问题,导致用户体验下降。

2、 由于国内Internet 资源,主要在电信、联通网内,移动必须依赖与电信、联通的带宽。

3、 中国移动必须向中国电信、中国联通缴纳高额的网间结算费用。

上述三个问题是中国移动迫切需要解决的问题,我们根据对内蒙古移动、北京移动以及浙江移动的调研得出下面中国移动各省的典型网络拓扑图:图1 中国移动网络拓扑图A 市局点B 市局点C 市局点省干路由器1 省干路由器2Internet其它盟市局点国干路由器2国干路由器1从调研可知:中国移动各省一般有两台CMNET国干路由器,两台CMNET省网路由器。

两台省网路由器以口字形方式上行到国干路由器,上行带宽和互联带宽一般为2*POS 10G。

中国移动各省在全区各地市部署了盟市核心路由器,一般情况下每盟市2台,省干路由器以口字形方式上联到2台国干网路由器。

上行带宽一般为POS2.5G。

中国移动和中国电信、中国联通的网络接驳地点分布在北京、上海、广州等大城市。

网络出口请求主要由在线视频、HTTP下载和网页访问等流量构成,而资源大部分在ISP网外,所以这些流量不可避免的需要经过网络出口。

庞大的视频、HTTP下载流量占用带来的互联互通问题导致用户体验下降,同时也带来了结算问题。

所以解决在线视频、HTTP下载和网页访问等流量带来的带宽占用,是提高中国移动用户体验、降低网间费用结算的关键。

二、创新点分析1、节省网间结算费用:目前国内的源站服务器大都部署在中国电信、中国联通的IDC数据中心机房内,中国移动每年需要支付给中国电信和中国联通上千万的网间结算费用。

cache替换策略lfu算法例题

cache替换策略lfu算法例题

cache替换策略lfu算法例题
LFU(Least Frequently Used)算法是一种常用的缓存替换策略,它根据数据项被访问的频率来决定替换哪些数据项。

下面我将通过一个例题来解释LFU算法的工作原理。

假设我们有一个缓存,它的大小为3,初始状态为空。

现在有一系列的访问请求如下:
1. 访问A.
2. 访问B.
3. 访问A.
4. 访问C.
5. 访问B.
6. 访问D.
现在我们来按照LFU算法来逐步处理这些访问请求。

1. 访问A,缓存为空,将A加入缓存。

当前缓存状态为A(1)。

2. 访问B,将B加入缓存。

当前缓存状态为A(1), B(1)。

3. 访问A,更新A的访问频率,当前缓存状态为A(2), B(1)。

4. 访问C,将C加入缓存,当前缓存状态为A(2), B(1), C(1)。

5. 访问B,更新B的访问频率,当前缓存状态为A(2), B(2),
C(1)。

6. 访问D,缓存已满,需要替换一个数据项。

根据LFU算法,
C的访问频率最低,因此将C替换为D,当前缓存状态为A(2),
B(2), D(1)。

通过以上例题,我们可以看到LFU算法是根据数据项的访问频
率来进行替换的。

当缓存空间不足时,LFU算法会选择访问频率最
低的数据项进行替换,以期望保留那些被频繁访问的数据项。

这样
可以更有效地利用缓存空间,提高缓存命中率。

总的来说,LFU算法是一种比较高效的缓存替换策略,它能够根据数据项的访问频率来进行智能替换,从而更好地满足实际的缓存需求。

cache的使用

cache的使用

cache的使用
(实用版)
目录
1.Cache 的定义和作用
2.Cache 的分类
3.Cache 的工作原理
4.Cache 的优点和局限性
5.Cache 的应用领域
正文
一、Cache 的定义和作用
Cache,即高速缓存,是一种存储技术,主要用于提高数据访问速度。

它的主要作用是减少数据读取时间,提高数据处理速度,从而提高系统的运行效率。

二、Cache 的分类
Cache 主要分为以下几类:
1.CPU Cache:位于 CPU 内部,主要用于存储和加速 CPU 访问的数据和指令。

2.内存 Cache:位于内存和硬盘之间,主要用于存储经常访问的数据,以减少内存和硬盘之间的读写延迟。

3.硬盘 Cache:位于硬盘内部,主要用于存储从磁盘读取的数据,提高读取速度。

4.网络 Cache:位于网络节点,主要用于存储经常访问的网络数据,以减少网络延迟。

三、Cache 的工作原理
Cache 的工作原理主要基于局部性原理,即程序在一段时间内对某些数据的访问比其他数据更频繁。

Cache 通过以下方式实现数据访问加速:
1.命中率:Cache 能够命中访问的数据,直接从 Cache 中读取,无
需访问其他存储设备。

2.未命中:当 Cache 中没有访问的数据时,Cache 会将数据从其他
存储设备中读取并存储,以便下次访问。

四、Cache 的优点和局限性
Cache 的优点主要体现在提高了数据访问速度,减少了数据读取时间,提高了系统的运行效率。

然而,Cache 也存在一定的局限性,如 Cache 失效、Cache 一致性等问题。

cache的基本结构

cache的基本结构

cache的基本结构摘要:一、引言二、Cache的基本概念1.缓存的作用2.Cache的分类三、Cache基本结构1.组成要素2.工作原理四、Cache的优化策略1.缓存过期策略2.缓存替换策略3.缓存更新策略五、案例分析1.常见Cache应用场景2.Cache在实际项目中的应用六、结论正文:一、引言随着互联网技术的不断发展,网站性能优化成为越来越重要的课题。

在此背景下,缓存技术(Cache)应运而生,成为提高系统性能的有效手段。

本文将从Cache的基本概念、基本结构、优化策略等方面进行详细阐述,以期帮助读者更好地理解和应用Cache技术。

二、Cache的基本概念1.缓存的作用缓存的主要作用是减轻服务器负担,提高数据访问速度。

通过在客户端或服务器端存储热点数据,可以在访问数据时避免重复计算或查询,从而提高系统性能。

2.Cache的分类根据缓存的位置和作用,可以分为以下几类:- 客户端缓存:位于客户端(如浏览器)的缓存,用于存储访问过的网页、图片等资源。

- 服务器端缓存:位于服务器上的缓存,用于存储热点数据,如数据库查询结果、动态生成的内容等。

- 分布式缓存:通过多个服务器协同工作,实现大容量、高性能的缓存系统。

三、Cache基本结构1.组成要素一个典型的Cache结构包括以下几个要素:- 缓存空间:用于存储数据的空间,通常有限。

- 缓存策略:决定如何存储、更新和替换数据的规则。

- 缓存命中率:访问的数据在缓存中命中的比例,用以评估缓存效果。

2.工作原理Cache的工作原理简单来说就是“存、取、更新”:- 存:当客户端请求数据时,服务器将数据存储到缓存中。

- 取:当客户端再次请求相同数据时,优先从缓存中取出数据。

- 更新:当数据发生变化时,更新缓存中的数据,以确保客户端获取到最新数据。

四、Cache的优化策略1.缓存过期策略缓存数据具有一定的过期时间,超过过期时间后,数据会被自动删除。

常见的过期策略有:- 固定过期时间:设置一个固定的时间,如10分钟、30分钟等。

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

Cache的方案高速缓存(Cache)高速缓存Cache是位于CPU和主存储器之间规模较小、存取速度快捷的静态存储器。

Cache 一般由高速RAM (例如双极型存储器或静态MOs存储器)构成,采用的映射方式有直接映像方式、全相联映像和组相联映像方式。

可以使程序和数据共享一个Cache,也可以按程序和数据分别设置。

还可以把Cache存储器分成若干个体,采用多体N路相联映像。

Cache在CPU中起着举足轻重的作用,借助Cache, CPU可以以较快的速度存取静态存储器中的数据,而且系统成本上升不大。

它是微机系统在不大幅度增加成本的前提下,使性能提升的一个非常有效的技术。

全新的Intel Advanced Smart Cache有效加强多核心架构的效率,传统的双核心设计每个独立的核心都有自己的L2 Cache,但Intel Core微架构则是通过核心内部的Shared Bus Router共用相同的L2 Cache,当CPU 1运算完毕后把结果存在L2 Cache时,CPU 0便可通过Shared Bus Router读取CPU 1放在共用L2 Cache上资料,大幅减低读取上的延迟并减少使用FSB带宽,同时加入L2 & DCU Data Pre-fetchers及Deeper Write output缓冲存储器,大幅增加了Cache 的命中率。

Cache会与内存建立一种索引方式,处理器核心向Cache发出目标数据的地址,然后开始在Cache的标签部分搜索目标地址,如果目标地址存在,则表示CPU命中所要的数据,反之则未命中。

如果未命中,则Cache会通过系统总线在内存中寻址相应的数据,并且把数据写入到Cache中。

在寻址的方式相同的前提下,如果Cache容量太大,就会导致处理器花费大量的时间比较Cache中的地址。

就算寻址方式可以避免这种现象,也会以牺牲Cache的命中率为代价。

Cache的发展历史和现状Intel 高速缓存结构为了弥补CPU与内存之间的差距,从80486开始,在CPU内部采用了Cache CPU内部的Cache 由硬件进行控制运行,对操作系统和应用软件都是透明的。

在80486中,数据和指令都统一存储在同一个高速缓存中,因此也称为“统一的写通式高速缓存”。

“写通”的含义是:对高速缓存单元内任何数据的修改,同时必须写入到内存中,以保持高速缓存与内存数据的一致性。

这个过程不需要操作系统或应用软件干预。

80486只有一级高速缓存。

Pentium 高速缓存结构1、Pentium 的存储器系统微计算机的内存储器系统一般分为三个层次,处理器内部的第一级Cache即L1 Cache,置于处理器内部或外部的第二级Cache,或称为L2 Cache以及主存储器DRAM。

这三个层次又是怎样组织的呢?常用的Cache结构通常有两种,通视(Look-through)结构和旁视(Look-aside)结构。

Look-through结构设计了处理器局部总线和系统总线以及存储器总线之间的隔离措施,将Cache控制器置于处理器局部总线和系统总线以及存储器总线之间。

而Look-aside结构则没有隔离处理器局部总线和系统以及存储器总线的措施。

处理器直接与系统总线和DRAM相连,Cache控制器则被安置在总线的一旁。

在Look-through的结构中,当处理器需要访问存储器,首先进行Cache目录查找,看Cache中是否存在所需存储器信息的副本。

如果Cache命中,处理器将以零等待状态访问内部Cache,处理器发出的存储器请求信息不会被传送到主存储器和系统总线上。

所以减少了系统总线和存储器总线的使用时间,允许并发操作的发生。

两个总线主设备在同一个系统中可以同时运行是Look-through Cache 结构的主要优点。

处理器能够以零等待态访问它的本地Cache(Look-through),而另一个总线主,比如DMA或其它智能控制器,可以利用系统总线或存储器总线访问存储器,两种操作相互不会发生干扰,可以同时进行。

Look-through结构还可以支持多处理器系统。

因此Look-through Cache结构的性能优于Look-aside结构。

这种结构的不足是,在Cache不命中的情况下,Cache目录查找延迟了请求存储器访问的时间。

另外由于结构复杂,设计制造的难度使得价格高于Look-aside Cache结构。

在采用Look-aside Cache结构的系统里,一旦处理器启动一个总线周期,系统中的所有设备都要检测这个总线地址,就象系统中没有Cache 那样。

这种结构虽然简单廉价,但系统总线占用率高,多个总线主设备无法并发工作。

Pentium的存储器系统多采用Look-through Cache结构。

Pentium微处理器内部集成了8K字节的代码Cache和8K字节的数据Cache,称之为L1级Cache。

处理器通过L2级Cache控制器连接L2级Cache。

系统的主存DRAM是经过双端口的DRAM控制器连接在L2 Cache控制器上的,L2 Cache控制器与Pentium处理器直接相连,起到了隔离处理器局部总线和系统以及存储器总线的作用。

在Pentium系列的微机系统当中,芯片组(chip set)北桥和南桥分别连接了系统的存储器和系统总线并对它们进行控制,L2 Cache和L2 Cache控制器是北桥的一部分。

微处理器和外部环境连接的信号分为6组:- 地址信号;- 数据信号;- 总线周期控制信号;- 监听控制信号;- L2 Cache控制信号;- 总线主控制信号。

处理器访问储存器的过程大致是这样的,首先查找处理器内部的L1 Cache,看其中是否存在目标存储器单元的备份,当发现所要访问的数据不在L1时,便产生对片外的存储器访问,此时,L2 Cache控制器将CPU发出的地址、数据与控制信号传递到L2 Cache控制器与存储器连接的总线上,先进行对L2 Cache的访问。

如果发现要访问的数据仍然不在L2中,才启动对主存储器DRAM的访问。

不管在那一级存储器中找到了要寻址的单元,对目标访问以后,都要设置和修改维护数据一致性的MESI标志。

2、Pentium Cache 组织原则代码Cache和数据Cache采用了二路组相联的结构。

我们称这两个高速缓存存储体为0路和1路。

0路和1路各包含128个Cache行,并且都拥有一个由128个目录项组成的目录与它相关联,Cache行和目录项一一对应。

Cache的目录有三个可以同步访问的端口。

其中两个端口分别对应于流水线U和V,它们支持对两路组兼容的访问。

另一个端口用于监听系统中其他处理器对存储器的操作。

每个Cache行都包含32字节,如果是代码Cache,处理器每次从Cache读取32个字节的数据,将它们送到预取队列。

代码Cache是只读的,它只使用了MESI协议的一部分(S和I)。

数据Cache的结构和代码Cache基本相同,由于数据Cache 是可读写的,它使用了完全的MESI协议。

下面以数据Cache为例对Cache结构以及Pentium 微处理器与存储器的关系进行讨论。

Cache控制器把主存看成是由和Cache路大小相同的页组成。

Pentium二路组相联Cache的每一路是4K字节,这就意味着4GB的存储空间被分为1048576页,页号从0到1048575,每页大小都是4K字节。

从结构上,每个主存页也被看成与一路Cache格式相同,每页具有128行(0~127),每行32字节。

每当从主存读出一行数据进行Cache行替换的时候,数据总是被装在与主存页中行序号相同的Cache行当中。

主存的页面地址同时被记录在相同序号的目录项中。

从Cache控制器的角度,也可以清楚地看出目录项和访问端口各部分的作用。

在每一路Cache 中,每个目录项对应一个Cache行。

目录项包含20位的标记域、1位校验域和2位状态域。

标记域记录了装入Cache行的数据来源于哪个主存页,即主存页的地址(A31~A12)。

这是记录Cache数据与主存储器关系的唯一标志。

一位的校验位在每次更新目录项时产生并写入。

两位状态位指出Cache中的行所包含的信息的M、E、S、I状态。

访问目录的端口包括三个部分,20位的标记域记录了目标存储器高位地址A31~A12,指出目标地址属于主存的哪一页;7位的行域记录了目标存储器次7位地址A11~A5,指出了目标地址是页中的哪一行,也就是数据可能存在于Cache路中的哪一行;最低2位是双字域,指示了目标存储器A4~A2三位地址,指出所要访问的双字在行中的哪一排(bank),也就是cache行中的位置。

当流水线需要从存储器读数据(或向存储器写结果)时,便给出了要访问的存储器地址,令Cache控制器通过目录端口在Cache目录中查找,看Cache中是否存在该存储单元的副本。

Cache控制器以行号为索引查找目录项。

首先检查0路和1路索引指示的目录项状态位,如果某一路的状态位为(I),表示这一路Cache行包含的是无效信息,那么就转向检查另一路的状态。

如果状态位指示该路Cache行所包含的是合理信息,那么Cache控制器就把内存地址的页号和目录项中标记域表示的页地址相比较。

如果主存的页地址和某一个目录项标记域的地址匹配,就说明Cache与此目录项相关的行中存放了这个要找的数据块。

如果主存页地址和任何一个标记域都不匹配,就产生了Cache的不命中,Cache控制器就要执行Cache行的替换,请求总线单元从主存中读取所需要的数据,覆盖掉与主存行序号相同的2路Cache行中的一行。

Pentium的Cache控制器采用"最近最少使用替换算法",从2路的行中选择最近最少使用的那一行进行替换。

一个128位的LRU标志,每位对应2个序号相同的目录项。

LRU标志位记录了2个同序号行中最近最少使用行所在路的序号。

从存储器读出数据进行Cache行替换的时候,根据LRU位指示的路序号,用新数据替换最近最少使用的那一行。

例如,对应于第5行的LRU位为0,表示0路最近最少使用。

如果需要在Cache 中复制某一页存储器第5行的数据,那么就要将新数据填入0路的第5行。

然后对LRU位更新,第5行的最近最少使用位变为1,1路的第5行成为最近最少使用行。

数据更新以后,相关的目录项也要更新,要在标记域中记录源存储器的页号并修改MESI 状态。

Pentium CPU 有两个独立的一级高速缓存,一个为8KB的指令高速缓存(LII Cache ),另一个为8KB的数据高速缓存(L1 Cache)。

允许两个高速缓存同时进行指令和数据地存取。

为了保证高速缓存中数据的一致性,采用了高速缓存一致性协议(MESI)。

相关文档
最新文档