多处理器Cache一致性分析
zynq cache问题的解决方法 linux

zynq cache问题的解决方法linuxZynq是Xilinx公司推出的一款全可编程SoC,它集成了FPGA和处理器核心,广泛应用于嵌入式系统开发。
在使用Zynq平台时,开发者可能会遇到Cache相关问题,影响系统的性能。
本文将针对Zynq Cache问题的解决方法进行探讨,主要基于Linux操作系统。
一、Zynq Cache简介Zynq SoC包含ARM Cortex-A9处理器核心,这些核心具有独立的L1 Cache(指令和数据),以及共享的L2 Cache。
Cache的主要作用是临时存储处理器频繁访问的数据和指令,以提高访问速度。
二、Zynq Cache问题及解决方法1.Cache一致性问题问题描述:当多个处理器核心或者处理器与FPGA之间访问同一内存地址时,可能会出现Cache一致性问题。
解决方法:(1)关闭处理器核心的L2 Cache:在Linux内核启动参数中添加“l2cache_disable=1”,以关闭L2 Cache。
(2)使用Cache一致性协议:如MOESI协议,确保多个Cache之间的一致性。
2.Cache性能问题问题描述:Cache命中率和带宽较低,导致系统性能下降。
解决方法:(1)优化程序代码:避免频繁访问大块内存,增加数据局部性。
(2)调整Cache策略:根据应用场景,调整Cache的替换策略和写入策略。
(3)增加Cache容量:在硬件设计阶段,可以考虑增加Cache容量以提高性能。
3.Cache错误问题问题描述:Cache出现错误,可能导致数据丢失或系统崩溃。
解决方法:(1)使用ECC(Error Correction Code)技术:对Cache进行错误检测和纠正。
(2)定期刷新Cache:定期将Cache中的数据写入内存,防止数据丢失。
(3)监控Cache错误计数器:通过查看Cache错误计数器,定位错误原因。
三、总结Zynq Cache问题在嵌入式系统开发中较为常见,了解其解决方法有助于提高系统性能和稳定性。
基于共享总线的多处理器cache一致性的硬件实现

oh ri lme t t n fc c ec h rn e a d t erp r r n e P te mp e n ai so a h o ee c n h i e o ma c .F GA x e i n ss o t a i b s s o p u i c n e s r o f e p rme t h w tt s u n o n t a n u e h h
的定义如下 :
a )M态。被寻址 的 cce 在 cc e中, cce块与 内 ah 块 ah 但 ah 存 中该 块相 比已被修改 。 b )E态。被寻址 的 cc e 在 cce中, ah 块 ah 并且 该 cce块 ah
L u — io,Z IJ n xa HANG S e g b n h n — i g,S N Xu b n HE — a g
( v t nMi oபைடு நூலகம் t nc C ne,N r w sr oyehi lU i ri ,X ’ n7 0 7 A i i c e co i et ao r er s r ot eenP l c n a n esy ia 1 02,C ia h t t c v t hn )
t a he c nsse c n mulir c s os’ s se c re ty a fii nl he c c o itn y i tp o e sr y t m o r cl nd efc e ty、 K e wo ds: ss o p; mutpr c s o s o itn y; c py b c y r bu n o li o e s r ;c nsse c o —a k
基 于 共 享总 线 的 多处 理 器 c c e一 致 性 的硬 件 实现 米 ah
cache 的mesi协议

cache 的mesi协议摘要:1.什么是Cache?2.Cache 的一致性问题和解决方案3.MESI 协议的提出4.MESI 协议的工作原理5.MESI 协议的优点和局限性6.总结正文:1.什么是Cache?Cache 是一种存储器,用于存储最近访问的数据。
在计算机系统中,Cache 位于处理器和主存储器之间,其作用是缓存主存储器中的数据,以便处理器能够更快地访问数据。
2.Cache 的一致性问题和解决方案当多个处理器同时访问Cache 时,可能会出现一致性问题。
为了解决这个问题,人们提出了多种一致性协议,其中最常用的是MESI 协议。
3.MESI 协议的提出MESI 协议是由加州大学伯克利分校的计算机科学家们提出的。
它是一种基于监听的总线协议,旨在解决Cache 一致性问题。
4.MESI 协议的工作原理MESI 协议根据数据的修改情况将Cache 分为四种状态:M(Modified)、E(Exclusive)、S(Shared)和I(Invalid)。
当处理器修改Cache 中的数据时,它将数据的状态设置为M。
当其他处理器请求访问该数据时,它将检查数据的状态,如果数据的状态为M,则处理器会拒绝访问;如果数据的状态为E,则处理器会允许访问;如果数据的状态为S,则处理器会共享数据;如果数据的状态为I,则处理器会重新加载数据。
5.MESI 协议的优点和局限性MESI 协议的优点是简单、高效,能够解决Cache 一致性问题。
然而,MESI 协议也有一些局限性,例如,它要求处理器能够区分不同状态的数据,这可能会增加处理器的复杂性。
6.总结MESI 协议是一种基于监听的总线协议,用于解决Cache 一致性问题。
它根据数据的修改情况将Cache 分为四种状态,并规定了不同状态下的处理器行为。
cache一致性问题和解决方法

cache一致性问题和解决方法作者辽宁工程技术大学摘要高速缓冲存储器一致性问题是指高速缓冲存储器中的数据必须与内存中的数据保持同步(一致) 。
多核处理器将一个以上的计算内核集成在一个处理器中,通过多个核心的并行计算技术,增强处理器计算性能。
单片多处理器结构(CMP—ChipMultiprocessor)又是该领域中备受关注的问题。
本文简要论述了CMP的多级Cache存储结构,多级结构引起了Cache一致性问题,一致性协议的选取对CMP系统的性能有重要影响。
使用何种Cache一致性模型以及它的设计方案是本文重点研究的内容。
关键词:CMP;Cache一致性;存储器;协议;替换策略Cache consistency problem and solving methodAbstract Cache consistency refers to the data in the cache memory must be synchronized with the data in memory (the same).Multi·core processor was the integration of multiple computing cores on a single processoL which improved processor computing ability through the parallelcomputing Technology of multi-coreprocessors.Single chip multi-processorarchitecture(CMP-ChipMulfiprocessor)was hot spots in this area.The CMPmulti-level Cache storage structure was briefly discussed in this paper,which led to Cache coherence problem,the selection of consistency protocol had a major impact on the performance of the CMP system.The selection of model of theCache Coherence and methods of its design will have a significant impact ofoverall design and development of CMPKey words:CMP Cache; consistency; memory; protocol; replacement strategy1引言在过去的二十年中,计算机处理器设计工艺和处理器体系结构发展迅速,计算机也能够完成所赋予它的大部分任务。
cache工作原理

cache工作原理概述:Cache是计算机系统中的一种高速缓存技术,用于存储最常用的数据,以提高计算机系统的性能。
本文将详细介绍Cache的工作原理,包括Cache的层次结构、Cache的读取和写入操作、Cache的替换策略以及Cache的一致性问题。
一、Cache的层次结构:计算机系统中的Cache通常分为多级,如L1 Cache、L2 Cache、L3 Cache等。
这些Cache按照层次结构排列,速度逐级递减,容量逐级递增。
L1 Cache位于CPU内部,速度最快,容量较小;L2 Cache位于CPU和主内存之间,速度次于L1 Cache,容量较大;L3 Cache位于CPU和主内存之间,速度最慢,容量最大。
Cache的层次结构能够充分利用局部性原理,提高数据的访问效率。
二、Cache的读取和写入操作:1. 读取操作:当CPU需要读取数据时,首先会从L1 Cache开始查找,如果在L1 Cache中找到了需要的数据,则称为命中(Cache Hit),CPU可以直接使用该数据。
如果在L1 Cache中没有找到需要的数据,则会依次向下一级Cache查找,直到找到或者到达主内存。
如果在所有的Cache中都没有找到需要的数据,则称为未命中(Cache Miss),CPU需要从主内存中读取数据,并将数据存入Cache中,以供下一次访问使用。
2. 写入操作:当CPU需要写入数据时,同样会首先在L1 Cache中查找是否存在需要写入的数据。
如果存在,则直接在L1 Cache中进行写入操作。
如果不存在,则需要根据Cache的写策略进行处理。
常见的写策略有写回(Write Back)和写直达(WriteThrough)。
写回策略是将数据先写入Cache中,然后在某个时刻再将数据写入主内存;写直达策略是将数据同时写入Cache和主内存。
写回策略可以减少对主内存的访问次数,提高性能,但可能会引发一致性问题。
三、Cache的替换策略:当Cache已满时,需要替换一些数据以腾出空间存放新的数据。
Cache一致性协议之MESI

Cache⼀致性协议之MESI转⾃:处理器上有⼀套完整的协议,来保证Cache⼀致性。
⽐较经典的Cache⼀致性协议当属MESI协议,奔腾处理器有使⽤它,很多其他的处理器都是使⽤它的变种。
单核Cache中每个Cache line有2个标志:dirty和valid标志,它们很好的描述了Cache和Memory(内存)之间的数据关系(数据是否有效,数据是否被修改),⽽在多核处理器中,多个核会共享⼀些数据,MESI协议就包含了描述共享的状态。
在MESI协议中,每个Cache line有4个状态,可⽤2个bit表⽰,它们分别是:状态描述M(Modified)这⾏数据有效,数据被修改了,和内存中的数据不⼀致,数据只存在于本Cache中。
E(Exclusive)这⾏数据有效,数据和内存中的数据⼀致,数据只存在于本Cache中。
S(Shared)这⾏数据有效,数据和内存中的数据⼀致,数据存在于很多Cache中。
I(Invalid)这⾏数据⽆效M(Modified)和E(Exclusive)状态的Cache line,数据是独有的,不同点在于M状态的数据是dirty的(和内存的不⼀致),E状态的数据是clean的(和内存的⼀致)。
(Shared)状态的Cache line,数据和其他Core的Cache共享。
只有clean的数据才能被多个Cache共享。
I(Invalid)表⽰这个Cache line⽆效。
E状态⽰例如下:E状态只有Core 0访问变量x,它的Cache line状态为E(Exclusive)。
S状态⽰例如下:S状态3个Core都访问变量x,它们对应的Cache line为S(Shared)状态。
M状态和I状态⽰例如下:M状态和I状态Core 0修改了x的值之后,这个Cache line变成了M(Modified)状态,其他Core对应的Cache line变成了I(Invalid)状态。
在MESI协议中,每个Cache的Cache控制器不仅知道⾃⼰的读写操作,⽽且也监听(snoop)其它Cache的读写操作。
多核处理器cache一致性

一.多核处理器cashe一致性 (2)二.基于无锁机制的事务存储 (3)1.事务的基本概念 (3)2.实现流程-design (4)3.缓存状态 (5)4.事务行为 (5)5. 回退机制 (6)三.TCC模型 (6)1.编程模型 (6)2.TCC系统 (7)四.ASTM (7)1.背景 (7)2.STM设计 (8)2.1. 急迫申请与懒惰申请 (8)2.2.元数据结构 (8)2.3. 间接引用对象 (8)3.基本ASTM设计 (9)五.参考文献 (10)一.多核处理器cache一致性由于后续章节要用到多处理器cashe一致性的协议,这里先简单阐述一下!维持多处理器cashe一致性的协议叫做cashe一致性协议。
而实现cashe一致性协议的关键就是要跟踪一个共享数据块的任何状态。
目前有两种协议,分别使用不同的技术来跟踪共享状态。
一种是基于目录的,一个物理内存中数据块的共享状态保存在一个位置,叫做目录。
另外一种就是snooping协议。
我们先来看看snooping协议的具体实现。
Snooping的做法是,每个cashe不仅保存着一份物理内存的拷贝,而且保存着数据块的共享状态的拷贝。
通过广播介质这些cashe可以被访问,所有的cashe控制器通过介质检测来决定自己是否拥有一份来自总线请求的数据块的拷贝。
目前多处理器普遍采用写无效协议来维持一致性的需求。
它的核心思想就是一个处理器在写数据之前必须确保它对该数据块的互斥访问。
如果一个读操作紧随一个写操作之后,由于写操作是互斥的,它在写之前必须对无效化所有该数据块在其它cashe上的拷贝,当读发生时,它获得一个读缺失而被迫去获取新的拷贝。
如果两个写操作试图对同一数据同时操作,那么只有一个获胜,获胜方使得其它处理器种的cashe拷贝无效化,其它操作要完成它的写操作必须先获得数据的新拷贝,也就是更新的数据的拷贝,因此写无效协议实际上实现了写的序列化。
实现写无效协议的关键是使用总线(bus),或者其它的广播介质来执行无效操作。
多核Cache一致性

x’
core1
x’
core2
……
x’
core3
I表示无效
4.写无效的问题 主要开销在两个方面: (1)作废各Cache副本的开销; (2)由作废引起缺失造成的开销,即处理 机需要访问已经作废的数据时将引起Cache的 缺失。
后果: 如果一个Core经常对某个块连续写,且Core 间对共享块的竞争较小,这时写无效策略维护 一致性的开销是很小的。如发生严重竞争,即 Core之间对某个地址的共享数据竞争,将产生 较多的作废,引起更多的作废缺失。结果是共 享数据在各Cache间倒来倒去,产生颠簸现象, 当缓存块比较大时,这种颠簸现象更为严重。
5. Write-Once一致性协议状态转移表
current command state P-Read P-Write 有效 有效 next state status action
P-Write
保留
必是局部进行, 有效 Read-hit 不影响有效状态 第一次写命中,用 保留 Write-hit 写通过法。同时修 改本地和主存副本 并广播Write-inv 使所有副本失效 第二次写命中,用 重写 Write-hit 写回法。但不修改 主存的副本
5. 写更新的问题 由于更新时,所有的副本均需要更新,开 销很大。
1.1 Cache Coherence问题 1.2 监听总线协议
1.2.1 写一次协议
1.3 基于目录的Cache一致性协议 1.4 三种Cache一致性策略
1.2 监听总线协议(Snoopy protocol)
通过总线监听机制实现Cache和共享存储 器之间的一致性。 适用性分析: 适用于具有广播能力的总线结构多Core系 统,允许每个Core监听其它Core的存储器访 问情况。 只适用于小规模的多Core系统。
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
多处理器Cache一致性分析[摘要]随着社会不断向前发展,人类对计算速度和计算规模的需求不断提高。
而单处理器计算机系统由于处理器运算性能受限于芯片速度极限和加工工艺极限,不可能无限提高。
于是超大规模并行处理系统应运而生。
但这也引入了一些在单处理器系统中没有出现的问题。
在系统中出现的多机存储信息的一致性问题便是当今国际上研究的热门问题之一。
为了缓和CPU与存储器之间的速度差距,在计算机系统的CPU与主存之间引入了cache。
但在多处理器系统中,由于多个处理器可能对同一数据块进行读写操作,当某个处理器对共享的数据块进行写操作时,其它处理器的cache中该数据块的副本将成为过时的数据。
如果不及时地通知相应的处理器,将导致错误的运行结果。
本文介绍了Cache的作用,Cache一致性问题的原因及解决这个问题的两种协议。
[关键字]Cache、Cache一致性、监听协议、基于目录的协议一、Cache简介和工作原理虽然CPU主频的提升会带动系统性能的改善,但系统性能的提高不仅仅取决于CPU,还与系统架构、指令结构、信息在各个部件之间的传送速度及存储部件的存取速度等因素有关,特别是与CPU/内存之间的存取速度有关。
若CPU工作速度较高,但内存存取速度相对较低,则造成CPU等待,降低处理速度,浪费CPU的能力。
如500MHz的PⅢ,一次指令执行时间为2ns,与其相配的内存(SDRAM)存取时间为10ns,比前者慢5倍,CPU和PC的性能怎么发挥出来?目前最好的方法是在慢速的DRAM和快速CPU之间插入一速度较快、容量较小的SRAM,起到缓冲作用;使CPU既可以以较快速度存取SRAM中的数据,又不使系统成本上升过高,这就是Cache法。
Cache的工作原理是基于程序访问的局部性。
对大量典型程序运行情况的分析结果表明,在一个较短的时间间隔内,由程序产生的地址往往集中在存储器逻辑地址空间的很小范围内。
指令地址的分布本来就是连续的,再加上循环程序段和子程序段要重复执行多次。
因此,对这些地址的访问就自然地具有时间上集中分布的倾向。
数据分布的这种集中倾向不如指令明显,但对数组的存储和访问以及工作单元的选择都可以使存储器地址相对集中。
这种对局部范围的存储器地址频繁访问,而对此范围以外的地址则访问甚少的现象,就称为程序访问的局部性。
根据程序的局部性原理,可以在主存和CPU通用寄存器之间设置一个高速的容量相对较小的存储器,把正在执行的指令地址附近的一部分指令或数据从主存调入这个存储器,供CPU 在一段时间内使用。
这对提高程序的运行速度有很大的作用。
这个介于主存和CPU之间的高速小容量存储器称作高速缓冲存储器(Cache)。
系统正是依据此原理,不断地将与当前指令集相关联的一个不太大的后继指令集从内存读到Cache,然后再与CPU高速传送,从而达到速度匹配。
CPU对存储器进行数据请求时,通常先访问Cache。
由于局部性原理不能保证所请求的数据百分之百地在Cache中,这里便存在一个命中率。
即CPU在任一时刻从Cache中可靠获取数据的几率。
命中率越高,正确获取数据的可靠性就越大。
在CPU与主存之间增加了Cache之后,便存在数据在CPU和Cache及主存之间如何存取的问题。
读写各有2种方式。
写通过(Write Through):任一从CPU发出的写信号送到Cache的同时,也写入主存,以保证主存的数据能同步地更新。
它的优点是操作简单,但由于主存的慢速,降低了系统的写速度并占用了总线的时间。
写回式(Write-back):为了克服贯穿式中每次数据写入时都要访问主存,从而导致系统写速度降低并占用总线时间的弊病,尽量减少对主存的访问次数,又有了写回式。
它是这样工作的:数据一般只写到Cache,这样有可能出现Cache中的数据得到更新而主存中的数据不变(数据陈旧)的情况。
但此时可在Cache中设一标志地址及数据陈旧的信息,只有当Cache中的数据被再次更改时,才将原更新的数据写入主存相应的单元中,然后再接受再次更新的数据。
这样保证了Cache和主存中的数据不致产生冲突。
二、多个Cache不一致的原因在多处理机系统中,当一个处理机访问存储器时,首先检查要访问的数据在CACHE中是否已经存在.如果存在,则不需要访问共享存储器.若一个处理机向存储器写数据时,采用“写回”策略,存储器中仍保留过时的内容,这时另外一个处理机从存储器相应单元读到的将是不正确的内容.即使是采用“写透”策略,仍会出现问题.这就是多处理机系统最有名的CACHE一致性问题.例如,图1所示,在处理机Pl没有写操作之前,处理机Pl和P2都将同一存储单元的内容x读入各自的CACHE中了(图1(a)),这时不管是采用写透(图1(b)),还是写回(图1(c)),当处理机Pl完成写操作之后,处理机P2再次使用自己CACHE中的x时一定会导致错误.图1,多处理机CACHE一致性要解决多处理机的Cache一致性问题,首先要研究一致性问题的由来。
出现不一致的原因有3个:共享可写数据引起的不一致、进程迁移引起的不一致和I/O传输引起的不一致.对于进程迁移引起的CACHE不一致,可以通过禁止进程迁移的办法来解决,也可以在进程挂起时,靠硬件的方法将CACHE中该进程改写过的信息块强制写回主存相应位置来解决.对于1/O操作引起的不一致,一种直接的方法是将I/O处理机与各个专用CACHE直接相连,形成了主处理机与I/O处理机共享CACHE的结构,于是只要解决了各CACHE之间,以及CACHE与主存储器之间的数据一致性,就可保证I/O操作的一致性.三、解决多处理机CACHE不一致性问题的策略解决多处理机CACHE不一致性问题主要有两种办法:监听CACHE协议和基于CACHE 目录的协议.3.1监听CACHE协议监听CACHE协议,即各处理机的每次写操作都是公开发布,为所有的处理机知道,那么各处理机就根据监听的信息对自身的数据采取保持一致的措施,采用监听CACHE协议,当某个CACHE中的内容被改写后,可以有两个办法避免出现远程CACHE内容不一致,第一种办法是使所有远程CACHE中相同数据块“作废”,使全部CACHE中该数据块只有一个有效,简称写作废策略。
另一种办法是当改写时,凡存有该数据块的远程CACHE也进行同样的改写,使它们的内容同时“更新”,结果在全部CACHE中可能有多个有效的数据块,简称写更新策略,如果采用写更新方式,每当某个CACHE中的内容被改写后,就必须将改写的内容送到所有的远程CACHE中.在总线方式组织的系统中,将会大大地增加总线的负担.所以一般的应用系统很少使用写更新策略.在采用写作废策略的系统中,为了表示CACHE中每个数据块当前的状态,必须安排一些标志位说明该数据是有效或无效.有时可能需要两个标志位,除说明本地的数据块状态外,还需要表明与系统中对应数据块之间的某种关系.3.2基于CACHE目录的协议基于CACHE目录的协议,就是当某个处理机的写操作无法为其他的处理机知道时,通过修改目录间接地向其他处理机报告,以便其他处理机采取措施.目录协议的思想是非常简单的,即将所有使用某一数据块的处理机登记在册,每次变动前都要查目录,变动后则修改目录.根据目录存储方法的不同可以将基于CACHE目录的协议分为集中式目录协议和分布式目录协议.3.2.1集中式目录协议集中式目录协议是指在主存储器中只用一个目录来标志数据块在各个处理机CACHE中存储的情况.集中式目录协议有几种方案,其中全映射方案就是采用一个集中存储的目录,每个数据块都在目录中建立一个项,目录项中设有与系统处理机个数相同的“存在位”,每个处理机一位.如果该数据块存在于某处理机的CACHE中,相应位就置1,反之就置0,此外,在每一项中还设置了一个重写位,如果该位为l,表示该数据块的内容已经被改写过,此时存在位中只能有一位为l,即改写此数据块的那个处理机拥有该块.与目录表相对应,每个CACHE 中也为每个数据块安排两个控制信息位.一个是有效位(V),表示该数据的有效或无效,只有当V=l时该数据块才可用的.另外一位称为专用位(P),如P=l,处理机可以直接向该数据块执行写操作,实际上这时的CACHE是该数据块唯一正确的CACHE拷贝.反之,当P=0时.不允许直接写入.如图2所示,全映射目录协议中各标志位的情况.图2,全映射目录协议3.2.2分布式目录协议分布式目录协议又称为链表式目录协议,该协议将目录分散配置到各CACHE中,用链表将有关的CACHE连接在一起.每个数据块建立一个数据链表,每个链表中只包含拥有该数据块的CACHE.于是,存储器中的每个数据块都只有一个指针,指向使用这个数据块的头结点.头结点再指向下一个拥有此数据块的CACHE,直到最后一个结点.链表可以是单向也可以是双向,单向链表只要一个指针,双向链表则需要前项指针和后项指针两个指针,如图3所示是分布式目录协议所用双向链表示意图。
图3,分布式目录协议所用双向链表四、CACHE一致性问题在多处理机系统中的应用如SUN Enterprise是SUN Microsystem公司的多处理机产品,主要作为服务器使用.总线名称为Gigaplane,峰值带宽为2.67GB/s,允许l6路交叉访问总容量为30GB的存储器.每块CPU板上有两个UhraSpace处理机及2GB的存储器,数据宽度为512字节.机箱中有16个插槽,可以任意地插入CPU板或I/O板,但每种至少应有一块.尽管存储器与处理机在一块板上,但是当处理机访问同一块板上的存储器时,也要通过总线,因此访问时间是均匀的.每块1/O板上有两个独立的SBUS总线(64位,25MHz).总磁盘容量达10TB.操作系统使用Solaris UNIX.Gigaplane总线长度为18英寸,操作时钟为83.5MHz,数据线256位,地址线4l位,同时可以支持112个总线事物请求,允许每个板提出7个总线操作要求.为了保证CACHE的一致性,SUN Enterprise使用写废策略来维持CACHE的一致性.它采用三位CACHE状态位,用以表示5种状态,组成了一种MEOSI协议.MEOSI所表示的五种状态分别为:无效状态I、专用状态E、共享状态s、修改状态M和共享已修改状态O.如果一个CACHE行在本处理机修改后成为M状态后,被其他处理机读时,将修改为O状态,表示被读过,而且存储器的该行内容已过时.五,结束语设置CACHE的目的就是为了提高存储系统的速度,使之尽可能小地影响CPU的运行速度.在多处看机系统中,保持CACHE内容与主存内容一致性,使多个处理机并行协调完成一个复杂问题的计算,使并行多处理机系统展现出在性能价格比、可靠性、可扩展性的优势.参考文献[1]John D.Carpinelli.Comp uter s tern Organization&Architecture[M].北京:人民邮电出版社,2001.[2]李亚民.计算机组成与系统结构[M].北京.清华大学出版社,2000.[3]傅麒麟徐勇.现代计算机体系结构[M].北京:北京希望电子工业出版社.2002.[4]徐甲同.高级操作系统[M].西安:西安电子科技大学出版社.1998.[5]赵庆民,李伟平.多处理机系统分析[J].微计算机应用,2005.。