各公司管理系统使用地Ceph存储集群
ceph存储原理

ceph存储原理ceph是一种开源、分布式的对象存储和文件系统,它能够在大规模的集群中存储和管理海量数据。
在ceph中,数据被分割成对象,并将这些对象存储在不同的存储节点上以实现高可用性和容错性。
这篇文章将介绍ceph存储的原理,包括ceph的架构、数据的存储和调度方式以及ceph如何处理故障。
ceph架构ceph的架构包括三个主要组成部分:客户端、存储集群和元数据服务器。
客户端是使用ceph存储的应用程序,它们通常是通过ceph API或者对象存储接口来访问ceph集群。
存储集群由一个或多个monitors、object storage devices(OSD),以及可能的元数据服务器组成。
monitors是ceph集群的核心组件,它负责管理ceph的全局状态信息、监控OSD 状态,并为客户端提供服务发现和配置信息。
OSD是实际存储数据的存储节点,它负责存储和处理对象,并在节点故障时自动重新平衡数据。
元数据服务器用于管理ceph文件系统中的元数据信息,包括文件和目录的名称、属性和层次关系等。
ceph存储数据的方式ceph将数据分割成对象,并使用CRUSH算法将这些对象分布在集群中的OSD上。
CRUSH 算法是ceph中存储调度的核心算法,它通过一系列计算将对象映射到存储集群中的OSD。
CRUSH将对象映射到OSD的方式是通过建立CRUSH映射表以实现负载均衡和容错。
CRUSH映射表可以根据管理员的需求进行调整,以达到最佳的性能和可扩展性。
ceph的CRUSH算法有以下特点:1. CRUSH将对象映射到可扩展的存储后端,以实现分布式存储和高可用性。
2. CRUSH使用元数据信息来动态调整对象的存储位置,并根据OSD的状态和磁盘使用情况等信息来实现负载均衡。
3. CRUSH允许管理员对存储策略进行调整,以适应不同的应用场景。
ceph的故障处理ceph具有强大的故障处理机制,它能够自动处理节点故障和数据损坏等问题,以确保数据的完整性和可用性。
ceph 运维手册

ceph 运维手册一、引言1.Ceph 简介Ceph 是一款开源的分布式存储系统,它具有高度可扩展性、性能优异、易于管理等特点。
Ceph 能够为云计算、虚拟化和企业级存储场景提供稳定、可靠的存储服务。
2.Ceph 运维手册目的本手册旨在为运维人员提供一份详细的Ceph 运维指南,帮助读者更好地理解和掌握Ceph 存储系统的部署、管理、优化和维护。
二、Ceph 架构1.组件介绍(1)Ceph Monitor(MON)Ceph Monitor 负责维护整个集群的元数据信息,包括监控OSD 节点的状态、存储池配置等。
(2)Ceph OSD 节点Ceph OSD 节点是Ceph 集群中的存储节点,负责存储数据和处理数据复制、恢复等操作。
(3)Ceph 客户端Ceph 客户端用于访问Ceph 存储系统,为应用提供存储服务。
2.架构原理Ceph 采用去中心化的设计,将数据分散存储在多个OSD 节点上,并通过Ceph Monitor 进行统一管理。
数据在OSD 节点之间自动进行复制和分布,以保证数据的可靠性和性能。
三、Ceph 运维流程1.部署Ceph 集群(1)准备环境确保服务器硬件、网络和操作系统满足Ceph 部署要求。
(2)安装和配置Ceph 组件根据Ceph 版本和集群规模,安装MON、OSD 和客户端等相关组件。
(3)配置集群参数设置集群名称、存储池、副本数等参数,以满足业务需求。
2.Ceph 集群日常运维(1)监控集群状态使用Ceph 提供的命令行工具或监控工具,定期检查集群健康状况。
(2)扩容和缩容集群根据业务需求,动态调整集群规模和存储容量。
(3)处理故障遇到故障时,及时排查并采取相应措施解决问题。
3.Ceph 存储管理(1)创建和删除存储池根据业务需求,创建和管理存储池。
(2)配置和调整存储策略根据数据特点,设置合适的存储策略,以提高存储利用率。
(3)监控存储性能定期检查存储性能,优化存储配置。
ceph 原理

ceph 原理Ceph原理Ceph是一种开源的分布式存储系统,它被设计用于提供高性能、高可靠性和可扩展性的存储解决方案。
Ceph的原理基于RADOS(可靠自主分布式对象存储)技术,采用了分布式存储和对象存储的理念,旨在解决传统存储系统中的各种挑战和瓶颈。
一、分布式存储Ceph的核心思想是将数据分布到多个存储节点上,通过数据的分散存储和冗余备份来提高可靠性和性能。
每个节点都可以同时扮演存储节点和计算节点的角色,形成一个分布式存储集群。
数据被划分为多个对象,并通过唯一的对象ID进行标识和索引。
Ceph采用了动态数据分布机制,通过CRUSH算法(Controlled Replication Under Scalable Hashing)将对象映射到存储节点上。
CRUSH算法基于一致性哈希函数,能够将对象均匀分布到存储节点上,避免了传统存储系统中的数据热点问题。
同时,CRUSH算法还考虑了存储节点的负载情况和网络拓扑结构,能够根据实际情况进行动态的数据迁移和负载均衡,提高系统的性能和可扩展性。
二、对象存储Ceph将数据以对象的形式进行存储和管理,每个对象都有一个唯一的标识符和元数据。
对象的大小可以根据需求进行灵活设置,Ceph 能够支持从几KB到几TB不等的对象大小。
Ceph通过RADOS Gateway提供了对象存储接口,支持通过RESTful API和S3/Swift协议来访问和管理对象。
用户可以通过标准的HTTP 请求来上传、下载和删除对象,实现了与传统的文件系统和块存储的兼容性。
三、数据冗余和容错性Ceph在数据分布和存储过程中采用了冗余备份机制,确保数据的可靠性和容错性。
每个对象都会被复制到多个存储节点上,形成数据的冗余备份。
Ceph支持灵活的副本策略,用户可以根据需求设置副本的数量和位置。
Ceph通过心跳机制和故障检测算法来监测存储节点的状态,一旦发现节点故障或数据错误,系统会自动进行数据恢复和修复。
ceph块存储原理

ceph块存储原理Ceph块存储原理Ceph是一种分布式存储系统,可以为企业提供高效、可靠的存储服务。
Ceph块存储是Ceph存储系统的一部分,它支持块级别的存储,可以为虚拟化环境中的虚拟机提供存储服务。
本文将详细介绍Ceph块存储的原理。
一、Ceph块存储的基本概念Ceph块存储是一种分布式存储,它将数据划分成块,并将这些块存储在不同的节点上。
Ceph块存储的每个块都有一个唯一的ID,称为块ID。
Ceph块存储通过RADOS(可靠自适应分布式对象存储)来管理数据的存储和访问。
RADOS是Ceph的核心组件之一,它负责存储和管理数据。
Ceph块存储通过RBD(RADOS块设备)来实现块级别的存储。
RBD是一种虚拟块设备,它将RADOS存储池中的对象映射为块设备。
RBD可以通过QEMU、KVM等虚拟化平台来访问,为虚拟机提供块级别的存储服务。
二、Ceph块存储的存储原理Ceph块存储的存储原理是将数据划分成块,并将这些块存储在不同的节点上。
Ceph块存储的每个块都有一个唯一的ID,称为块ID。
Ceph块存储通过RADOS来管理数据的存储和访问。
RADOS将数据存储在多个OSD(对象存储设备)上,每个OSD都存储一部分数据。
RADOS会根据数据的大小和复制策略将数据分成多个对象,每个对象都有一个唯一的ID,称为对象ID。
RADOS将对象映射到OSD上,每个对象都有多个副本,副本数由复制策略决定。
当一个对象的一个副本发生故障时,RADOS会自动将副本切换到其他OSD上。
Ceph块存储的RBD将RADOS存储池中的对象映射为块设备。
当一个块设备需要读取或写入数据时,RBD会将数据分成多个对象,每个对象都存储在不同的OSD上。
RBD会通过RADOS协议来访问这些对象,实现数据的读取和写入。
当一个对象的一个副本发生故障时,RADOS会自动将副本切换到其他OSD上,保证数据的可靠性和高可用性。
三、Ceph块存储的访问原理Ceph块存储的访问原理是通过RBD来实现的。
ceph概念

ceph概念Ceph是一个分布式存储系统,用于可扩展、高性能和高可靠性的数据存储。
以下是一些Ceph的基本概念:1. 集群(Cluster): 一个Ceph集群由多个存储节点组成,共同工作以提供数据存储和访问服务。
2. 存储节点(OSD): 存储节点是Ceph的基本构建单元,用于存储和管理数据。
每个存储节点负责存储数据块,并提供输入/输出操作。
3. 对象(Object): 数据被划分为对象,并被分布在不同的存储节点上。
每个对象都具有唯一的标识符,称为对象ID。
4. RADOS(Reliable Autonomic Distributed Object Store): RADOS是Ceph的核心组件,用于管理和存储对象。
它提供了高度可靠的数据存储和自动化管理功能。
5. 副本(Replica): Ceph使用数据副本来实现冗余和容错性。
每个对象在存储集群中复制多个副本,以提供高可用性。
6. PG(Placement Group): PG是一组相关的对象的集合,定义了对象如何被分片、存储和复制。
PG是Ceph用于数据分布和容错的基本单元。
7. OSD映射(Object Storage Device Map): OSD映射是一个散列表,将对象映射到存储节点上的物理设备。
它用于存储每个对象的数据位置和副本分布。
8. CRUSH(Controlled Replication Under Scalable Hashing): CRUSH是Ceph用于数据分布和数据副本放置的算法。
它可以根据配置策略智能地将数据分布在不同的存储节点上。
9. RADOS Gateway: RADOS Gateway是Ceph提供的对象存储和云存储服务,允许用户通过RESTful接口访问和管理存储对象。
这些是Ceph的一些基本概念,它们一起提供了可扩展的、高性能的和高可靠性的分布式存储解决方案。
分布式存储基础、Ceph、cinder及华为软件定义的存储方案

块存储与分布式存储块存储,简单来说就是提供了块设备存储的接口。
通过向内核注册块设备信息,在Linux 中通过lsblk可以得到当前主机上块设备信息列表。
本文包括了单机块存储介绍、分布式存储技术Ceph介绍,云中的块存储Cinder,以及华为软件定义的存储解决方案。
单机块存储一个硬盘是一个块设备,内核检测到硬盘然后在/dev/下会看到/dev/sda/。
因为需要利用一个硬盘来得到不同的分区来做不同的事,通过fdisk工具得到/dev/sda1, /dev/sda2等,这种方式通过直接写入分区表来规定和切分硬盘,是最死板的分区方式。
分布式块存储在面对极具弹性的存储需求和性能要求下,单机或者独立的SAN越来越不能满足企业的需要。
如同数据库系统一样,块存储在scale up的瓶颈下也面临着scale out的需要。
分布式块存储系统具有以下特性:分布式块存储可以为任何物理机或者虚拟机提供持久化的块存储设备;分布式块存储系统管理块设备的创建、删除和attach/detach;分布式块存储支持强大的快照功能,快照可以用来恢复或者创建新的块设备;分布式存储系统能够提供不同IO性能要求的块设备。
现下主流的分布式块存储有Ceph、AMS ESB、阿里云磁盘与sheepdog等。
1Ceph1.1Ceph概述Ceph目前是OpenStack支持的开源块存储实现系统(即Cinder项目backend driver之一) 。
Ceph是一种统一的、分布式的存储系统。
“统一的”意味着Ceph可以一套存储系统同时提供对象存储、块存储和文件系统存储三种功能,以便在满足不同应用需求的前提下简化部署和运维。
“分布式”在Ceph系统中则意味着真正的无中心结构和没有理论上限的系统规模可扩展性。
Ceph具有很好的性能、可靠性和可扩展性。
其核心设计思想,概括为八个字—“无需查表,算算就好”。
1.2Ceph系统的层次结构自下向上,可以将Ceph系统分为四个层次:基础存储系统RADOS(Reliable, Autonomic, Distributed Object Store,即可靠的、自动化的、分布式的对象存储);基础库LIBRADOS;高层应用接口:包括了三个部分:RADOS GW(RADOS Gateway)、RBD(Reliable Block Device)和Ceph FS(Ceph File System)。
如何利用Ceph构建高可靠性分布式存储系统

如何利用Ceph构建高可靠性分布式存储系统Ceph是一个免费开源的分布式存储系统,可以轻松地构建高可靠性的分布式存储系统。
Ceph是基于对象存储的,并提供了可伸缩性、高可用性和高性能的特性。
Ceph的体系结构包括Ceph存储集群、Ceph客户端和Ceph Gateway。
Ceph存储集群由一组存储节点组成,这些存储节点可以是笔记本电脑、台式机或服务器。
Ceph客户端是与应用程序交互的组件,提供了文件系统、块存储和对象存储接口。
Ceph Gateway是一个可选组件,提供了S3和Swift接口。
Ceph的存储数据结构是RADOS(可靠自定存储对象),是一个对象存储系统。
RADOS的数据对象是具有唯一标识和可用性功能的二进制对象。
RADOS存储的二进制数据与Ceph存储集群的存储节点分布有关,可以利用Ceph内置的一个分布式文件系统(CephFS)或基于块设备(RBD)来使用存储。
Ceph利用三个关键技术来实现高可靠性分布式存储系统:分布式副本、PG(placement groups)和CRUSH(Controlled Replication Under Scalable Hashing)算法。
分布式副本是Ceph副本管理的核心部分。
每个PG都有多个副本,Ceph在多个存储节点上分别存储这些副本,确保在节点故障的情况下数据的可用性。
PG是Ceph在存储集群上分配桶的方式,它将桶分组为小的计算单位,以便根据负载平衡和其他因素有效地管理设备。
CRUSH算法是一种分布式算法,它能够在存储集群中组织节点和数据副本的散列。
CRUSH算法通过构建一颗基于哈希值的树(称为CRUSH树),将所有的存储节点和副本散列到CRUSH树上的节点上。
这样,每个数据对象都可以存储在CRUSH树上的某个节点上,而这个节点也对应一个存储节点。
当存储节点发生故障时,CRUSH算法可以自动重新映射数据对象的存储位置,以确保数据的可用性。
ceph的应用场景

Ceph是一个统一的分布式存储系统,设计初衷是提供较好的性能、可靠性和可扩展性。
以下是Ceph的一些应用场景:
1. 云平台存储:Ceph在云平台上的使用非常广泛,特别是对于需要稳定可靠的后端存储的场景,如
OpenStack和Red Hat等。
2. 虚拟机和容器存储:Ceph可以作为虚拟机和容器的存储后端,为其提供持久化的存储空间。
3. 日志存储:由于Ceph的高可靠性和高性能,它也经常被用作日志存储的最佳实践。
4. 文件存储:Ceph的对象存储可以用于存储和分发大文件,例如视频、图片等,以及提供FTP、NFS、
和CIFS等文件共享服务。
5. 高性能计算存储:对于需要处理大量数据和进行高性能计算的系统,Ceph可以通过其高性能、高可靠
性和高扩展性来满足这些需求。
6. 备份和恢复:由于Ceph的稳定性和可靠性,它可以用作备份和恢复解决方案的一部分。
7. 大数据和AI存储:对于需要处理大量数据的大数据和AI应用,Ceph可以提供高性能、大容量和可靠的
数据存储。
以上都是Ceph的一些应用场景,它被广泛应用于各种需要高性能、高可靠性和可扩展性的数据存储场景中。
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
Ceph 作为软件定义存储的代表之一,最近几年其发展势头很猛,也出现了不少公司在测试和生产系统中使用 Ceph 的案例,尽管与此同时许多人Ceph 作为软件定义存储的代表之一,最近几年其发展势头很猛,也出现了不少公司在测试和生产系统中使用 Ceph 的案例,尽管与此同时许多人对它的抱怨也一直存在。
本文试着整理作者了解到的一些使用案例。
1. 携程(Ctrip)携程所使用的各种存储的现状:∙商业存储:∙SAN(HP/ HPS) , 1+ PB, 数据库∙NAS (HW) , 800+ TB, 文件共享开源存储∙GlusterFS, 1+ PB, 数据库备份∙FastDFS, 1+ PB, 海量照片∙HDFS, 10+ PB, 大数据而在不久的将来,随着公司业务的发展,携程需要的存储容量需要扩大到10倍以上。
携程选择Ceph的理由:低成本 + SDS + Scale-out + 统一存储 + 企业特性携程目前的Ceph集群的配置:∙CephVersion: 0.94.2,H release∙Object Storage: RGW + Swift API∙SDK: Python/ Java/ C#/ Ruby∙OS: Centos 6.4∙硬件:CPU(2 channels & 32 Core)、Mem128GB、disk(12*3TB/SATA disk +2*256GB raid1 SSD)、NIC(4*Gigabit LAN, bond 2 in 1 pair) RGW 使用架构:携程有在数据中心之间的同步数据的需求。
在研究了 CRUSHmap、Radosgw-agent、Federate gateway (不稳定、不灵活(只支持Zone 之间同步)、不易扩展)后,其自研了COS方案,它具有稳定、灵活、扩展性等特点:下一步的计划:∙Database on Ceph (Dev & QA Farm)∙Openstack/ DockerIntegrate with Ceph∙IT “Dropbox”资料来源:携程在 2015/10/18 SH Ceph Day 上的分享。
楼主点评:∙与互联网公司的通常做法一致:慎重选择、细致测试、分布使用(往往从开发测试环境中使用开始)、开源的不够用就自研希望携程能有更多的分享和回馈社区2. 联通研究院中国联通研究院在使用Ceph对象和文件存储:该集群还比较小,更多的是处于做大规模使用前的准备阶段。
其测试环境:测试结果:他们认为SSD对性能提升的效果一般:资料来源:联通研究院在 2015/10/18 SH Ceph Day 上的分享。
楼主点评:∙尚处于小规模测试和试用阶段∙使用的测试方法或者调优手段可能没到位,不然性能提高不会那么少3. 宝德云(PLCloud)宝德云使用Ceph的理由:∙Pure Software∙Open Source, Commercial Support∙Unified Storage: RBD, RGW, CephFS∙Scale Out∙Self Healing∙Replication and Erasure Coding∙Integrate well with OpenStack宝德云的用法:OpenStack + Ceph (RDB,CephFS)+ Docker∙所有 OpenStack 存储都放在 Ceph 上∙18*(5 OSD+1SSD) / CephRBD / CephFS∙785VM / 4vCPU32GB per VM∙Ubuntu14.04 / Docker1.6.1 / 150+ Containers per VM∙All VM Mount CephFS∙Mount VM Directory as Container’s Data Volume∙Boot 1 VM < 5s∙Boot 1 Container < 1s∙Boot 150+Containers < 120s∙Ceph Rados Gateway driver for Docker Registry∙Map RBD device inside DockerContainer∙CephFS as Data Volume∙CephFS as NAS Storage∙Run Ceph in Containers使用案例:宝德云上的爱慕流媒体服务∙Run media web/app/dbvmover OpenStackand CephRBD∙Use CephRGW as media resource storage∙Put video TransportStream/jpg file via c-language programme ∙Manage resource via python-swiftclient∙400+KB per video tsfile∙Reserved video ts/jpg file 7 days or 30 days∙Allow media server temporary access to objects∙Provide media service for Internet and Intranet User资料来源:宝德云在 2015/10/18 SH Ceph Day 上的分享。
楼主点评:∙够大胆(到目前为止 CephFS 还不稳定呐)、够与时俱进(什么东西新就用什么)∙没说清楚怎么支持爱慕的超大流数据4. CERN (欧洲核子研究委员会)实验室(来源)4.1 测试环境CERN 的一些实习生搭了一套环境,使用 NetApp Cinder driver 和 Ceph,进行性能比较。
NetApp 环境(适应iSCSI驱动): Ceph 集群:FAS2040 Storage Systems∙Data ONTAP 8∙52 DisksBenchmark 环境:做法:在两个存储上分别创建100G,200G,400G的卷,分别挂载到三个虚机上,使用 hdparm、Flexible I/O Tester 和 dd命令作为测试工具。
4.2 测试结果(FIO使用的是 writeback 缓存机制)结论:(1)读上,Ceph 比 NetApp 更快;写上,两者差不多。
(2)Ceph 使用缓存的话,对 I/O 性能影响很大。
writeback 能较大地提交性能,而writethrough 只能轻微地提交性能。
(3)对单个卷使用不同的条带化参数,能提交其性能。
该功能会在 Cinder 中实现。
5. 乐视云(来源)乐视采用了 Ceph RBD 作为统一存储,OpenStack使用的Cinder,后端接的是Ceph,Glance也是共享Ceph存储。
同时还提供了 S3 对象存储,用作于 CND 源站,存储乐视网的视频以及客户需要分发的资源。
S3 也是全国分布式部署,用户可以就近上传,再推送到北京。
目前乐视云 OpenStack 规模已达 900 个物理节点,对象存储的数据达到数PB。
乐视认为,“ceph 数据分布,性能方面都很不错,crush算法是它的亮点“。
6. UnitedStack (来源)国内的 UnitedStack 应该说对 Ceph 做出了很大的贡献,包括很多的 bug fix 和新的功能,同时,也使用 Ceph 搭建了很大规模的云。
他们 Ceph 团队的 blog非常值得关注。
下面是他们的测试报告:IOPS:吞吐率写惩罚:结论:/sammyliu/p/4908668.html探究雅虎百亿亿次计算级别的 Ceph 存储像Yahoo、Facebook这样的企业都需要存储数亿级的用户图片,他们都在为实现这个目标而努力,Yahoo将非结构数据的MObStor对象存储系统转移到了Ceph上,并且正在部署最新的基于Ceph的系统—云对象存储,Yahoo在数百个PB级规模上操作,显然已经是业内老大。
像Yahoo、Facebook这样的企业都需要存储数亿级的用户图片,他们都在为实现这个目标而努力,Yahoo将非结构数据的MObStor对象存储系统转移到了Ceph 上,并且正在部署最新的基于Ceph的系统—云对象存储,Yahoo在数百个PB级规模上操作,显然已经是业内老大。
任何超级巨头们都不会等待IT产业技术的自我更新,来满足自己应用的需求,但是当一个可替代的开源项目成长足够成熟,巨头们通常会从自己的软件到其他栈上做跨越式部署。
从雅虎的门户网站上我们可以清晰的看到,Yahoo的重心从自己研发的对象存储转移到了即将成为exascale级别的系统,这个系统基于开源项目Ceph,一种Swiss army knife的存储。
这样的跨越并不常见,因为这些超级公司更倾向去超越技术规模的限制,不论是他们自己的技术还是开源项目,当然通常是开源项目。
但这种情况确实存在。
比如说这周早些时候谈到的平台,媒体巨头Netflix,它一直使用Cassandra NoSQL 数据库的一个自定义版本来作为控制流媒体服务和用户交互的后端,去年秋天,它将端口从DataStax转移到Cassandra的商业级别的 variant上。
而Yahoo正在进行一次更大的跨越,他们将自己研发的用于非结构数据的MObStor对象存储系统转移到了Ceph上,Yahoo的架构副总监说,他们这次的变化是经过慎重考虑的。
所有的信息技术都从cat图片开始雅虎是对象存储领域规模上的创新者,就如同Facebook和他的Haystack系统,Amazon和他的S3系统,Mosso Cloud Files系统曾经是Rackspace Hosting的Swift对象存储的基础,而现在已成为OpenStack云控制器的一部分。
Yahoo和Facebook都要存储数亿级别的用户图片,处理PB级别的容量,这就迫使他们开发自己的系统,实现更高效的图片存储功能,亚马逊和Rackspace假设,创建云应用的用户同样希望将丰富的媒体嵌入到图片上,所以他们想将对象存储变成他们公有云的一部分。
上面提到的所有对象存储系统,Haystack、 MObStor、 S3、Cloud Files/Swift,他们被开发都是因为文件系统中常规存储阵列都存在非常大系统开销,这是因为用来跟踪对象的元数据存在于集群中。
对象存储刚好忽略了文件系统,并将所有数据放在同一个bucket里,然后使用一个key,比如文件名或web的地址,在集群中找到该数据。
这样可以使元数据的开销更小,因为没有文件系统与之抗衡。
十几年前,早期的雅虎图片服务器是由一个特殊的存储系统来处理非结构数据,其之后是一个由Yahoo开发,被称为MObStor的系统,它是一个用起来更加复杂、更具有普遍性的对象存储系统,Yahoo于2009年的夏天首次公开提及MObStor。