Ceph基本原理介绍

合集下载

ceph存储原理

ceph存储原理

ceph存储原理ceph是一种开源、分布式的对象存储和文件系统,它能够在大规模的集群中存储和管理海量数据。

在ceph中,数据被分割成对象,并将这些对象存储在不同的存储节点上以实现高可用性和容错性。

这篇文章将介绍ceph存储的原理,包括ceph的架构、数据的存储和调度方式以及ceph如何处理故障。

ceph架构ceph的架构包括三个主要组成部分:客户端、存储集群和元数据服务器。

客户端是使用ceph存储的应用程序,它们通常是通过ceph API或者对象存储接口来访问ceph集群。

存储集群由一个或多个monitors、object storage devices(OSD),以及可能的元数据服务器组成。

monitors是ceph集群的核心组件,它负责管理ceph的全局状态信息、监控OSD 状态,并为客户端提供服务发现和配置信息。

OSD是实际存储数据的存储节点,它负责存储和处理对象,并在节点故障时自动重新平衡数据。

元数据服务器用于管理ceph文件系统中的元数据信息,包括文件和目录的名称、属性和层次关系等。

ceph存储数据的方式ceph将数据分割成对象,并使用CRUSH算法将这些对象分布在集群中的OSD上。

CRUSH 算法是ceph中存储调度的核心算法,它通过一系列计算将对象映射到存储集群中的OSD。

CRUSH将对象映射到OSD的方式是通过建立CRUSH映射表以实现负载均衡和容错。

CRUSH映射表可以根据管理员的需求进行调整,以达到最佳的性能和可扩展性。

ceph的CRUSH算法有以下特点:1. CRUSH将对象映射到可扩展的存储后端,以实现分布式存储和高可用性。

2. CRUSH使用元数据信息来动态调整对象的存储位置,并根据OSD的状态和磁盘使用情况等信息来实现负载均衡。

3. CRUSH允许管理员对存储策略进行调整,以适应不同的应用场景。

ceph的故障处理ceph具有强大的故障处理机制,它能够自动处理节点故障和数据损坏等问题,以确保数据的完整性和可用性。

ceph分布式存储恢复数据原理

ceph分布式存储恢复数据原理

Ceph分布式存储系统是一个高可靠、高性能的分布式存储解决方案,它采用了对象存储的方式来存储和管理数据。

当数据在Ceph集群中的某个节点发生故障时,Ceph会通过数据恢复机制来保证数据的可靠性和完整性。

以下是Ceph分布式存储恢复数据的原理:1.数据冗余:Ceph通过数据冗余机制来实现数据的容错能力。

每个对象都会被分成多个数据块,并将这些数据块复制到不同的存储节点上。

默认情况下,Ceph会将每个对象的三个副本分布在不同的存储节点上,以保证数据的可靠性。

2.数据恢复:当一个存储节点发生故障时,Ceph会自动检测到节点的故障,并将故障节点上的数据块复制到其他节点上的副本进行恢复。

Ceph使用智能的恢复算法,可以根据网络状况和存储节点的负载情况来选择最佳的恢复路径,以加快数据恢复的速度。

3.故障域:Ceph支持将存储节点分组为故障域,例如机架、机柜或数据中心。

当一个故障域发生故障时,Ceph会优先选择其他故障域中的存储节点来进行数据恢复,以提高数据的可用性和可靠性。

4.副本替换:当一个存储节点永久性地离线或被删除时,Ceph会自动创建新的副本来替换故障的节点。

Ceph会根据预定义的规则来选择替代节点,并将故障节点上的数据块复制到替代节点上,以保证数据的完整性和可靠性。

5.数据平衡:Ceph会自动监测集群中各个存储节点的负载情况,并在需要时将数据块迁移或复制到其他节点上,以实现数据的均衡分布。

这样可以提高存储系统的性能和可扩展性。

总之,Ceph通过数据冗余、智能的恢复算法、故障域管理、副本替换和数据平衡等机制来保证数据的可靠性和完整性。

当一个存储节点发生故障时,Ceph会自动进行数据恢复,将故障节点上的数据复制到其他节点上,以保证数据的可用性和持久性。

ceph对象存储原理

ceph对象存储原理

ceph对象存储原理Ceph对象存储原理Ceph是一种分布式的对象存储系统,它可以将数据存储在多个节点上,提供高可用性和可扩展性。

在了解Ceph对象存储原理之前,我们先来了解一下什么是对象存储。

对象存储是一种将数据以对象的形式存储的方式,每个对象都有一个唯一的标识符。

与传统的块存储和文件存储不同,对象存储不使用文件系统来组织数据,而是将数据与元数据一起存储为一个整体。

Ceph对象存储是基于RADOS(可靠自动分布式对象存储)架构实现的。

RADOS将存储集群划分为多个OSD(对象存储守护进程)节点,每个节点上存储着一部分数据。

当客户端请求访问数据时,Ceph会通过CRUSH算法来确定数据所在的节点,并将数据返回给客户端。

CRUSH算法是Ceph的核心算法之一,它负责将数据块映射到存储节点上。

CRUSH算法通过一系列的映射规则和散列函数来实现数据的分布式存储。

这样,即使在节点发生故障时,Ceph也能够保证数据的可用性。

在Ceph中,数据被分成多个对象,并存储在不同的OSD上。

每个对象都有一个唯一的标识符,称为对象ID。

当客户端请求访问数据时,它会向Ceph Monitor发送一个请求,Monitor会通过CRUSH算法确定数据所在的OSD,并将数据返回给客户端。

Ceph对象存储还提供了数据冗余和数据恢复的功能。

数据冗余是通过将数据复制到多个OSD节点来实现的,这样即使某个节点发生故障,数据仍然可用。

数据恢复则是通过复制丢失的数据块到其他节点上来实现的。

除了数据冗余和数据恢复,Ceph还提供了数据分片和数据压缩的功能。

数据分片可以将大的对象分成多个小的数据块进行存储,提高数据的并发性和吞吐量。

数据压缩则可以减少数据的存储空间,提高存储效率。

总结一下,Ceph对象存储的原理是基于RADOS架构实现的。

它通过CRUSH算法将数据分布在不同的存储节点上,提供高可用性和可扩展性。

同时,Ceph还提供了数据冗余、数据恢复、数据分片和数据压缩等功能,提高了数据的可靠性和存储效率。

ceph数据迁移原理

ceph数据迁移原理

ceph数据迁移原理
Ceph是一个开源的分布式存储系统,它的数据迁移原理涉及到多个方面。

首先,Ceph的数据迁移可以发生在不同的存储池之间,也可以发生在不同的Ceph集群之间。

数据迁移的原理包括以下几个方面:
1. 数据平衡,Ceph集群中的数据是通过数据平衡算法进行分布的,数据迁移会涉及到数据平衡的调整。

当有新的存储节点加入集群或者有存储节点被移除时,数据迁移会通过数据平衡来确保集群中数据的均衡分布,以提高性能和容错能力。

2. CRUSH算法,Ceph使用CRUSH算法来确定数据在存储集群中的位置,数据迁移会涉及到CRUSH算法的重新计算,以确定数据在迁移后的存储位置,保证数据的可靠性和高效访问。

3. 迁移策略,Ceph提供了多种数据迁移策略,可以根据不同的需求选择合适的迁移策略。

例如,可以通过命令行工具或者管理接口来手动触发数据迁移,也可以根据自动迁移策略来实现数据的自动迁移,以适应不同的业务需求。

4. 数据复制和恢复,在数据迁移过程中,Ceph会通过数据复
制和恢复机制来保证数据的一致性和可靠性。

数据迁移会涉及到数
据的复制和在目标位置的恢复,以确保数据在迁移过程中不会丢失
和损坏。

总的来说,Ceph的数据迁移原理涉及到数据平衡、CRUSH算法、迁移策略以及数据复制和恢复等多个方面,通过这些机制来实现数
据的高效迁移和管理。

希望这些信息能够帮助你更好地理解Ceph数
据迁移的原理。

ceph 原理

ceph 原理

ceph 原理Ceph原理Ceph是一种开源的分布式存储系统,它被设计用于提供高性能、高可靠性和可扩展性的存储解决方案。

Ceph的原理基于RADOS(可靠自主分布式对象存储)技术,采用了分布式存储和对象存储的理念,旨在解决传统存储系统中的各种挑战和瓶颈。

一、分布式存储Ceph的核心思想是将数据分布到多个存储节点上,通过数据的分散存储和冗余备份来提高可靠性和性能。

每个节点都可以同时扮演存储节点和计算节点的角色,形成一个分布式存储集群。

数据被划分为多个对象,并通过唯一的对象ID进行标识和索引。

Ceph采用了动态数据分布机制,通过CRUSH算法(Controlled Replication Under Scalable Hashing)将对象映射到存储节点上。

CRUSH算法基于一致性哈希函数,能够将对象均匀分布到存储节点上,避免了传统存储系统中的数据热点问题。

同时,CRUSH算法还考虑了存储节点的负载情况和网络拓扑结构,能够根据实际情况进行动态的数据迁移和负载均衡,提高系统的性能和可扩展性。

二、对象存储Ceph将数据以对象的形式进行存储和管理,每个对象都有一个唯一的标识符和元数据。

对象的大小可以根据需求进行灵活设置,Ceph 能够支持从几KB到几TB不等的对象大小。

Ceph通过RADOS Gateway提供了对象存储接口,支持通过RESTful API和S3/Swift协议来访问和管理对象。

用户可以通过标准的HTTP 请求来上传、下载和删除对象,实现了与传统的文件系统和块存储的兼容性。

三、数据冗余和容错性Ceph在数据分布和存储过程中采用了冗余备份机制,确保数据的可靠性和容错性。

每个对象都会被复制到多个存储节点上,形成数据的冗余备份。

Ceph支持灵活的副本策略,用户可以根据需求设置副本的数量和位置。

Ceph通过心跳机制和故障检测算法来监测存储节点的状态,一旦发现节点故障或数据错误,系统会自动进行数据恢复和修复。

ceph块存储原理

ceph块存储原理

ceph块存储原理Ceph块存储原理Ceph是一种分布式存储系统,可以为企业提供高效、可靠的存储服务。

Ceph块存储是Ceph存储系统的一部分,它支持块级别的存储,可以为虚拟化环境中的虚拟机提供存储服务。

本文将详细介绍Ceph块存储的原理。

一、Ceph块存储的基本概念Ceph块存储是一种分布式存储,它将数据划分成块,并将这些块存储在不同的节点上。

Ceph块存储的每个块都有一个唯一的ID,称为块ID。

Ceph块存储通过RADOS(可靠自适应分布式对象存储)来管理数据的存储和访问。

RADOS是Ceph的核心组件之一,它负责存储和管理数据。

Ceph块存储通过RBD(RADOS块设备)来实现块级别的存储。

RBD是一种虚拟块设备,它将RADOS存储池中的对象映射为块设备。

RBD可以通过QEMU、KVM等虚拟化平台来访问,为虚拟机提供块级别的存储服务。

二、Ceph块存储的存储原理Ceph块存储的存储原理是将数据划分成块,并将这些块存储在不同的节点上。

Ceph块存储的每个块都有一个唯一的ID,称为块ID。

Ceph块存储通过RADOS来管理数据的存储和访问。

RADOS将数据存储在多个OSD(对象存储设备)上,每个OSD都存储一部分数据。

RADOS会根据数据的大小和复制策略将数据分成多个对象,每个对象都有一个唯一的ID,称为对象ID。

RADOS将对象映射到OSD上,每个对象都有多个副本,副本数由复制策略决定。

当一个对象的一个副本发生故障时,RADOS会自动将副本切换到其他OSD上。

Ceph块存储的RBD将RADOS存储池中的对象映射为块设备。

当一个块设备需要读取或写入数据时,RBD会将数据分成多个对象,每个对象都存储在不同的OSD上。

RBD会通过RADOS协议来访问这些对象,实现数据的读取和写入。

当一个对象的一个副本发生故障时,RADOS会自动将副本切换到其他OSD上,保证数据的可靠性和高可用性。

三、Ceph块存储的访问原理Ceph块存储的访问原理是通过RBD来实现的。

ceph系统读取数据原理

ceph系统读取数据原理

ceph系统读取数据原理
Ceph是一个分布式对象存储系统,它的数据读取原理主要涉及到以下几个关键组件和步骤:
1.客户端请求:当客户端需要读取数据时,它会向Ceph集群发送一个读取请求,这个请求会包含需要读取的数据的标识信息,如对象ID、池(Pool)名称等。

2.监视器(Monitor):Ceph集群中的监视器负责维护集群的状态和映射关系。

当客户端发送请求时,监视器会根据其维护的映射关系,确定对象存储的位置。

3.OSD(Object Storage Daemon):OSD是Ceph集群中的对象存储设备,负责存储实际的数据。

根据监视器返回的映射关系,客户端会向对应的OSD发送读取请求。

4.PG(Placement Group):在Ceph中,对象被组织成PG(Placement Group)进行管理。

每个PG包含一定数量的对象,并且每个PG都会被映射到一个或多个OSD上。

客户端在发送读取请求时,会根据对象的ID计算出对应的PG,然后再根据PG的映射关系找到对应的OSD。

5.数据读取:当客户端找到存储所需数据的OSD后,它会向该OSD发送读取请求。

OSD在收到请求后,会查找本地存储的对象数据,并将其返回给客户端。

需要注意的是,Ceph的读取过程还涉及到一些优化和容错机制,如数据副本、CRUSH算法等。

这些机制可以提高数据的可靠性和读取性能。

总之,Ceph的数据读取原理主要是通过客户端、监视器和OSD之间的协作,根据对象的标识信息和映射关系,找到存储数据的OSD,并从其中读取数据。

ceph 读法

ceph 读法

ceph 读法一、什么是cephCeph是一种分布式文件系统,旨在提供高性能、高可靠性和可扩展性。

它被设计用于在大规模数据存储环境中使用,并能够处理海量数据。

二、ceph的读法ceph这个词来源于古希腊词汇kephalē(意为“头”),这是因为Ceph系统的设计灵感来自于章鱼的神经系统。

根据这个词的原意,ceph的正确读法应该是“kef”。

三、Ceph系统的概述Ceph是一种将数据分布在多个存储节点上的分布式文件系统。

它包括多个组件,包括存储集群和命名空间。

3.1 存储集群Ceph存储集群由一组服务器节点组成,每个节点都具备存储能力。

这些节点通过网络连接在一起,形成一个分布式存储系统。

3.2 命名空间命名空间是Ceph中用于存储和访问数据的逻辑单元。

它类似于传统的文件系统中的文件夹。

命名空间可以被分配给特定的用户或应用程序,从而实现数据的隔离和访问控制。

四、Ceph系统的工作原理Ceph系统的工作原理可以简单概括为以下几个步骤:当数据写入Ceph系统时,它会被分割为若干个对象,并生成唯一的对象ID。

这些对象会根据一定的算法被分布到存储集群的不同节点上,以实现数据的冗余和负载均衡。

4.2 数据复制为了保证数据的可靠性,Ceph系统会将数据以副本的形式存储在多个节点上。

这些副本可以在节点之间进行数据同步,以确保数据的一致性。

4.3 数据访问当应用程序需要读取数据时,它会向Ceph系统发送一个读取请求,该请求会包含要读取的对象ID。

Ceph系统会根据对象ID定位到存储该对象的节点,并将数据返回给应用程序。

五、Ceph的优势Ceph作为一种分布式文件系统,具有以下几个优势:1.高可靠性:Ceph通过数据的冗余和副本机制,可以在节点故障时保证数据的可靠性和可用性。

2.高性能:Ceph使用了分布式数据存储和访问的技术,能够实现并行的数据处理,从而提高系统的吞吐量和响应速度。

3.可扩展性:Ceph的存储集群可以动态地添加或删除节点,从而实现系统的横向扩展,更好地适应数据量的增长。

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

• • •
重要概念
• PG Map
• • • • • PGMap 是由 Monitor 维护的所有 PG 的状态; OSD仅维护自己所拥有的PG状态; Monitor会根据所掌握的所有PG的状态确定是否需要进行PG迁移,即rebalance; 当monitor根据cluster配置值及集群状态决定对某个PG进行迁移时,首先会更新其对应的 PGMap,并将该PGMap push到相关的OSD; OSD 启动并加入 OSDMap 后,Monitor 会通知这个OSD需要创建和维护的 PG ,当存在 多个副本时,PG 的 Primary OSD 会主动与 Replicated 角色的 OSD 通信并且沟通 PG 的 状态,其中包括 PG 的最近历史记录,新的 OSD 会得到其他 PG 的全部数据然后逐渐达成 一致,或者 OSD 已经存在该 PG 信息,那么 Primary PG 会比较该 PG 的历史记录然后达 成 PG 的信息的一致(peering); 对于新加入集群的osd,没有pg需要同步(peering),monitor决定pg的迁移。
关键处理流程
• OSD临时故障恢复 故障发生后,如果一定时间后重新上线故障 OSD,那么 PG 会进行以下流程:
• • 故障 OSD 上线,通知 Monitor 并注册,该 OSD 在上线前会读取存在持久设备的 PGLog; Monitor 得知该 OSD 的旧有 id,因此会继续使用以前的 PG 分配,之前该 OSD 下线造成的 Degraded PG 会 被通知该 OSD 已重新加入; 这时候分为两种情况,注意这个情况下 PG 会标志自己为 Peering 状态并暂时停止处理请求; 第一种情况是故障 OSD 所拥有的 Primary PG • 它作为这部分数据“权责”主体,需要发送查询 PG 元数据请求给所有属于该 PG 的 Replicate 角色节点; 该 PG 的 Replicate 角色节点实际上在故障 OSD 下线时期间成为了 Primary 角色并维护了 “权威”的 PGLog,该 PG 在得到故障 OSD 的 Primary PG 的查询请求后会发送回应; Primary PG 通过对比 Replicate PG 发送的元数据和 PG 版本信息后发现处于落后状态,因 此它会合并得到的 PGLog并建立“权威” PGLog,同时会建立 missing 列表来标记过时数 据; Primary PG 在完成“权威” PGLog 的建立后就可以标志自己处于 Active 状态;
• • •
PG 开始接受 IO 请求,但是 PG 所属的故障节点仍存在过时数据,故障节点的 Primary PG 会发起 Pull 请求 从 Replicate 节点获得最新数据,Replicate PG 会得到其他 OSD 节点上的 Primary PG 的 Push 请求来恢复 数据 恢复完成后标记自己 Clean
关键处理流程
• OSD永久故障处理
• 若OSD故障无法短期,Ceph将其视为永久性故障;

对于永久性故障的OSD,Ceph会将其从OSDMap
中剔除,并利用CRUSH算法对落在其上的PG重 新进行数据分布的计算,包括重新为PG分配OSD 以及计算Primary OSD;

新加入的OSD将从同PG的其它节点pull数据,恢 复自己的PG信息。


重要概念
• PG(Placement group)
• • • • • • Pool内部的虚拟概念,无实体对应, Pool中的PG number是可配置的; Object与osd的中间逻辑分层,object固定属于某个PG(由crush算法决定),PG与osd存在对应关系; PG和OSD之间是多对多的对应关系,即一个PG对应多个OSD,同时一个OSD可能对应不同的PG; 每一个PG都有一个primary OSD和多个Secondary OSD,object会被分发到这些osd上进行存储; PG中primary osd负责写操作,读操作可由replica osd完成; PG中primary osd默认为pg中第一个osd,当 OSD 发生故障时(意外 crash 或者存储设备损坏),Monitor 会将 该 OSD 上的所有角色为 Primary 的 PG 的 Replicated 角色的 OSD 提升为 Primary PG,这个 OSD 所有的 PG 都会处于 Degraded 状态; PG中处于degraded状态的PG若无法恢复,该OSD 会被踢出集群,这些 PG 会被 Monitor 根据 OSD 的情况 分配到新的 OSD 上 PG作为 Object 的拥有者,负责维护 Object 的信息; PG 的数据和相关故障恢复、迁移所必须的记录都是由每个 PG 自己维护,也就是存在于每个 PG 所在的 OSD 上。

OSDMap的同步——慢传播
• • Monitor 随机的挑选一些 OSD 更新 OSDMap; Monitor仅直接通知需要了解该变化的节点,如一个新的 OSD 加入会导致一些 PG 的迁移,那么这些 PG 的 OSD 会得到通知; 同一个PG中的OSD进行通信时会附带osdmap的epoch,若版本不一致,则具有更高版本osdmap的osd会将 其拥有的osdmap信息push到低版本osdmap的osd; 在集群空闲时,很有可能需要更长的时间完成新 Map的更新。
• Reliable, Automatic, Distributed, Object Store • Rados提供对象存储接口; • Rados负责维护集群状态及数据分发。
• Ceph底层采用对象存储,其它存储 接口基于对象存储接口进行二次封装。
Rados基本组件
• Rados由两类组件构成
• OSD(Object Storage Device) 负责数据的存储和维护。 • Monitor 负责集群状态的维护及检测。 为消除单点故障,monitor组 件也是集群形式。

关键处理流程
• OSD临时故障的恢复
• 在恢复过程中,PG的Primary OSD出现故障且未重新 选举出新的Primary OSD的时候,是 PG 唯一不处理请 求的阶段,但这个阶段通常会在1s内结束; • 在恢复期间故障 OSD 会维护 missing 列表,如果 IO 正好是处于 missing 列表的数据,那么 PG 会进行恢 复数据的“插队”操作,主动将该 IO 涉及的数据从 Replicate PG 拉过来,提前恢复该部分数据,此种情 形的延时一般在几十毫秒。
关键处理流程
• 新osd的加入
• • • • • • • OSD 会向 Monitor 申请加入,Monitor 验证其信息后会将其加入 OSDMap 并标记为IN; 同时monitor将申请加入的osd放在 Pending Proposal 中,并会在下一次 Monitor “讨论”中 提出; OSD 在得到 Monitor 的回复信息后发现自己仍然没在 OSDMap 中会继续尝试申请加入; 接下来 Monitor 会发起一个 Proposal ,申请将这个 OSD 加入 OSDMap 并且标记为 UP ; 按照 Paxos 的流程,从 proposal->accept->commit 到最后达成一致,OSD 最后成功加入 OSDMap ,OSD状态变为UP; 新的 OSD 获得最新 OSDMap 发现其已经在其中时,不再向Monitor发起加入申请; OSD开始建立与其他OSD的连接,Monitor 开始给其分配PG,进入PG迁移即rebalance流 程。
关键处理流程
• OSD临时故障的恢复
• • • • • 某一个 OSD 下线; 如果 OSD 主动下线它会通知 Monitor 自己下线,请做好相关通知工 作; 如果是异常下线,那么其他 OSD 和 Monitor 会通过 Heartbeat 来得 知 OSD 下线同样让 Monitor 知晓; Monitor 重新计算该 OSD 所属PG的Primary OSD,并将结果主动 通知这些 PG 所在的 OSD; PG 将自己设为 Degraded 状态后,将会减小自己的副本数,并增加 保存的 PGLog 条目数。
OSD的逻辑结构
• 系统部分(Object Storage Device)
本质上是安装了操作系统及文件 系统的计算机,并带有存储介质。
• 守护进程( OSD Daemon )
OSD系统平台的守护进程,主要 负责存储和查找对象,并且负责 向该对象的复制节点分发和恢复。
重要概念
• Pool
• • 每个cluster可创建多个pool; Pool是逻辑上的隔离单位,不同的pool可以具 有完全不同的数据处理方式,如replica size, PG numbers,CRUSH rules,Snapshots, ownership等配置均通过pool进行隔离; Ceph中的任何操作必须先指定pool,无论是 块存储或对象存储; Pool具体的OSD没有mapping的对应关系;
Ceph基本原理介绍
讲师 : 景芳华
目录
• Why Ceph
• Ceph Cluster的基本结构
• Ceph的几个重要概念 • Ceph Cluster中的关键流

Why Ceph?
• 大数据时代企业级存储产 品需求
Why Ceph
• Ceph的定位
基本结构
• 模块架构
基本结构
• 底层Rados模块是Ceph分布式存储 的根本

重要概念
• PGLog
• • PGLog主要设计用户osd临时故障恢复后pg的恢复; PGLog 由 PG 维护并且记录了该 PG 所有的操作,其非常类似于关
系型数据库领域的 undo log;
• PGLog 与 Journal 概念不同,Journal 是底层单机存储模块用来维护 事务一致性的,它是数据库领域的 redo log; • PGLog 通常只保存 PG 最近几千条的操作记录,但是在 PG 处于 Degraded 状态时,PGLog 会保存更多的日志条目期望能在故障 PG 重新上线后用来恢复数据。
相关文档
最新文档