几种集群方式比较
产业集群经济发展的一种战略方式

产业集群经济发展的一种战略方式一、产业集群的界定与特点产业集群(Industrial Cluster)的界定有多种,而哈佛大学教授波特的界定具有一定的代表性。
产业集群是指在特定领域中,一群在地理上集中,且有相互关联性的企业、专业化供应商、服务供应商、相关产业的厂商,以及相关的机构(如大学、制定标准化的机构、产业协会等),由它们构成的群体(波特,2003)。
产业集群有以下几个特点:一是围绕某一产业而形成的,即产业特性。
特定领域是指某一产业,它但是三大产业中的任一产业,但一样以第二产业中的制造业为多,往往是与某具体产品联系在一起,且多是消费品。
二是在某一区域内相对集中,即地点特性。
该区域可大可小,但不是以行政区域来划分,而是以地理的邻近性为界限。
三是一样都包含五大类相互作用的机构。
一个典型产业集群中图1 产来集群的五大差不多构成单位这五大类机构构成了产业集群的五大行动主体,这五大行动主体之间有着多种多样的联系,它们的共同作用导致该产业集群成为一个有机的经济整体。
其中,成品商是该产业集群最终产品的生产者,客商是最终产品的销售者,供应商是最终产品生产所需要的中间投入品的生产与供应者,中介服务机构是指为成品商、供应商与客商服务的金融、保险、运输、教育、培训、研究所、行业协会等机构,规制治理机构是指为集群中各类经营性单位服务的本地政府部门、技术检测与监督机构等。
四是存在着显著的竞合关系。
最终产品制造商之间或中间产品供应商之间,存在着明显的既竞争又合作的关系。
为了共同的市场,制造商之间或供应商之间都进行着猛烈的竞争;但为了某种需要,这些单位之间又存在着一定的合作。
二、产业集群形成的诱因与机制1.形成诱因产业集群的形成方式有三种:一是诱致性自发形成,即因某些因素诱导而自发的形成;二是强制性培养而成,即通过有目的规划与培养而形成的;三是引导性培养而成,即在产业集群的早期即能识别出并加以有效地培养而形成。
诱导产业集群形成的因素有多种,归结起来不外乎两类:一是特定供给因素的存在,如马歇尔所说的存在适合某种产品生产的、专门的自然因素或人为因素而形成产业集群(马歇尔,1994)①,或是波特所说的特定历史背景、良好的相关产业状态、一两个创新性①注:马歇尔是最早关注产业集群现象的经济学家,他在1890年出版的《经济学原理》中第一次讨论产业集群现象,只是他当时称之为“地点性工业”,意指“专门工业集中于特定的地点”。
Hadoop集群的三种方式

Hadoop集群的三种⽅式1,Local(Standalone) Mode 单机模式$ mkdir input$ cp etc/hadoop/*.xml input$ bin/hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.9.2.jar grep input output 'dfs[a-z.]+'$ cat output/*解析$ bin/hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.9.2.jar grep input output 'dfs[a-z.]+'input 夹下⾯的⽂件:capacity-scheduler.xml core-site.xml hadoop-policy.xml hdfs-site.xml httpfs-site.xml yarn-site.xml bin/hadoop hadoop 命令jar 这个命令在jar包⾥⾯share/hadoop/mapreduce/hadoop-mapreduce-examples-2.9.2.jar 具体位置grep grep 函数input grep 函数的⽬标⽂件夹output grep 函数结果的输出⽂件夹'dfs[a-z.]+' grep 函数的匹配正则条件直译:将input⽂件下⾯的⽂件中包含 'dfs[a-z.]+' 的字符串给输出到output ⽂件夹中输出结果:part-r-00000 _SUCCESScat part-r-00000:1 dfsadmin在hadoop-policy.xml 存在此字符串2,Pseudo-Distributed Operation 伪分布式在 etc/hadoop/core.site.xml 添加以下属性<configuration><property><name>fs.defaultFS</name><value>hdfs://:8020</value> 是主机名,已经和ip相互映射</property>还需要覆盖默认的设定,mkdir -p data/tmp<property><name>hadoop.tmp.dir</name><value>/opt/modules/hadoop-2.5.0/data/tmp</value> 是主机名,已经和ip相互映射</property>垃圾箱设置删除⽂件保留时间(分钟)<property><name>fs.trash.interval</name><value>10080</value></property></configuration>etc/hadoop/hdfs-site.xml: 伪分布式1个备份<configuration><property><name>dfs.replication</name><value>1</value></property>配置从节点<property><name>node.secondary.http-address</name><value>主机名:50090</value></property></configuration>格式化元数据,进⼊到安装⽬录下bin/hdfs namenode -format启动namenode,所有的命令都在sbin下,通过ls sbin/ 可以查看sbin/hadoop-daemon.sh start namenode hadoop 的守护线程启动(主数据)sbin/hadoop-daemon.sh start datanode 启动datanode(从数据)nameNode都有个web⽹页,端⼝50070创建hdfs ⽂件夹,创建在⽤户名下⾯bin/hdfs dfs -mkdir -p /user/chris查看⽂件夹bin/hdfs dfs -ls -R / 回调查询本地新建⽂件夹mkdir wcinput mkdir wcoutput vi wc.input创建wc.input⽂件,并写⼊内容hdfs⽂件系统新建⽂件夹bin/hdfs dfs -mkdir -p /user/chris/mapreduce/wordcount/input本地⽂件上传hdfs⽂件系统bin/hdfs dfs -put wcinput/wc.input /user/chris/mapreduce/wordcount/input/在hdfs⽂件系统上使⽤mapreduce$ bin/hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.9.2.jar wordcount /user/chris/mapreduce/wordcount/input /user/chris/mapreduce/wordcount/output红⾊代表:读取路径蓝⾊代表:输出路径所以mapreduce的结果已经写到了hdfs的输出⽂件⾥⾯去了Yarn on a Single Node/opt/modules/hadoop-2.5.0/etc/hadoop/yarn-site.xml 在hadoop的安装路径下<configuration><property><name>yarn.resourcemanager.hostname</name><value></value></property><property><name>yarn.nodemanager.aux-services</name><value>mapreduce_shuffle</value></property></configuration>yarn 的配置已经完成在同⼀⽬录下slave⽂件上添加主机名或者主机ip,默认是localhostyarn-env.sh 和 mapred-env.sh把JAVA_HOME 更改下,防⽌出错export JAVA_HOME=/home/chris/software/jdk1.8.0_201将mapred-site.xml.template 重命名为mapred-site.xml,同时添加以下配置<configuration><property><name></name><value>yarn</name></property></configuration>先将/user/chris/mapreduce/wordcount/output/删除再次执⾏$ bin/hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.9.2.jarwordcount /user/chris/mapreduce/wordcount/input /user/chris/mapreduce/wordcount/output伪分布式执⾏完毕,mapreduce 执⾏在了yarn 上3,完全分布式基于伪分布式,配置好⼀台机器后,分发⾄其它机器step1: 配置ip 和 hostname 映射vi /etc/hosts192.168.178.110 hella-hadoop192.168.178.111 hella-hadoop02192.168.178.112 hella-hadoop03同时在window以下路径也得设置C:\Windows\System32\drivers\etc\hosts192.168.178.110 hella-hadoop192.168.178.111 hella-hadoop02192.168.178.112 hella-hadoop03具体可参考linux ip hostname 映射step2:部署(假设三台机器)不同机器配置不同的节点部署:hella-hadoop hella-hadoop02 hella-hadoop03HDFS:NameNodeDataNode DataNode DataNodeSecondaryNameNodeYARN:ResourceManagerNodeManager NodeManager NodeManager MapReduce:JobHistoryServer配置:* hdfshadoop-env.shcore.site.xmlhdfs-site.xmlslaves*yarnyarn-env.shyarn-site.xmlslaves*mapreducemapred-env.shmapred-site.xmlstep3:修改配置⽂件core.xml<configuration><property><name>fs.defaultFS</name><value>hdfs://:8020</value></property><property><name>hadoop.tmp.dir</name><value>/opt/app/hadoop-2.5.0/data/tmp</value></property><property><name>fs.trash.interval</name><value>10080</value></property></configuration>hdfs-site.xml<configuration><property><name>node.secondary.http-address</name><value>:50090</value></property></configuration>slavesyarn-site.xml<configuration><property><name>yarn.resourcemanager.hostname</name><value></value></property><property><name>yarn.nodemanager.aux-services</name><value>mapreduce_shuffle</value></property><!--NodeManager Resouce --><property><name>yarn.nodemanager.resource.memory-mb</name><value>4096</value></property><property><name>yarn.nodemanager.resource.cpu-vcores</name><value>4</value></property><property><name>yarn.log-aggregation-enable</name><value>true</value></property><property><name>yarn.log-aggregation-retain-seconds</name><value>640800</value></property></configuration>mapred-site.xml<configuration><property><name></name><value>yarn</value></property><property><name>mapreduce.jobhistory.address</name><value>:10020</value></property><property><name>mapreduce.jobhistory.webapp.address</name><value>:19888</value></property></configurationstep4:集群的配置路径在各个机器上要⼀样,⽤户名⼀样step5: 分发hadoop 安装包⾄各个机器节点scp -p 源节点⽬标节点使⽤scp 命令需要配置ssh ⽆密钥登陆,博⽂如下:step6:启动并且test mapreduce可能会有问题No route to Host 的Error,查看hostname 以及 ip 配置,或者是防⽕墙有没有关闭防⽕墙关闭,打开,状态查询,请参考以下博⽂:4,完全分布式+ HAHA全称:HDFS High Availability Using the Quorum Journal Manager 即 HDFS⾼可⽤性通过配置分布式⽇志管理HDFS集群中存在单点故障(SPOF),对于只有⼀个NameNode 的集群,若是NameNode 出现故障,则整个集群⽆法使⽤,知道NameNode 重新启动。
spark集群三种部署模式的区别

Spark三种集群部署模式的比较目前Apache Spark支持三种分布式部署方式,分别是standalone、spark on mesos和spark on YARN,其中,第一种类似于MapReduce 1.0所采用的模式,内部实现了容错性和资源管理,后两种则是未来发展的趋势,部分容错性和资源管理交由统一的资源管理系统完成:让Spark运行在一个通用的资源管理系统之上,这样可以与其他计算框架,比如MapReduce,公用一个集群资源,最大的好处是降低运维成本和提高资源利用率(资源按需分配)。
本文将介绍这三种部署方式,并比较其优缺点。
1. standalone模式,即独立模式,自带完整的服务,可单独部署到一个集群中,无需依赖任何其他资源管理系统。
从一定程度上说,该模式是其他两种的基础。
借鉴Spark开发模式,我们可以得到一种开发新型计算框架的一般思路:先设计出它的standalone模式,为了快速开发,起初不需要考虑服务(比如master/slave)的容错性,之后再开发相应的wrapper,将stanlone模式下的服务原封不动的部署到资源管理系统yarn或者mesos上,由资源管理系统负责服务本身的容错。
目前Spark在standalone模式下是没有任何单点故障问题的,这是借助zookeeper实现的,思想类似于Hbase master单点故障解决方案。
将Spark standalone与MapReduce比较,会发现它们两个在架构上是完全一致的:1) 都是由master/slaves服务组成的,且起初master均存在单点故障,后来均通过zookeeper解决(Apache MRv1的JobTracker仍存在单点问题,但CDH版本得到了解决);2) 各个节点上的资源被抽象成粗粒度的slot,有多少slot就能同时运行多少task。
不同的是,MapReduce将slot分为map slot和reduce slot,它们分别只能供Map Task和Reduce Task使用,而不能共享,这是MapReduce资源利率低效的原因之一,而Spark则更优化一些,它不区分slot类型,只有一种slot,可以供各种类型的Task使用,这种方式可以提高资源利用率,但是不够灵活,不能为不同类型的Task定制slot资源。
elasticsearch 集群方案

elasticsearch 集群方案Elasticsearch集群方案是个非常重要的话题,因为随着数据量的不断增长,单机的Elasticsearch已经无法满足大规模数据的存储和检索需求。
所以采用分布式集群方案已经成为了一种必要的选择。
一、Elasticsearch概述Elasticsearch是一个开源的搜索引擎,支持全文搜索、结构化搜索、分布式搜索等功能,能够快速搜索和分析多种类型的数据,包括日志、网站数据、地理位置数据等。
Elasticsearch的数据存储是基于Lucene的,它采用了分布式架构,可以将数据分片存储在不同的节点中,从而更好的支持数据的横向扩展。
二、Elasticsearch集群架构Elasticsearch集群架构是由多个节点组成的分布式系统,其中有一个节点被选为主节点,负责集群内部的协调和管理,还有一些节点被选为数据节点,负责存放索引数据。
在Elasticsearch中,每个索引都被分成多个分片,并分布在不同的节点上,每个节点只存储部分数据,这样可以更好地利用计算资源和存储空间。
三、Elasticsearch集群的部署方式Elasticsearch集群部署方式主要有两种,一种是单个节点部署的方式,另一种是分布式部署的方式。
单个节点部署方式适用于小规模的数据,可以在一台物理机或虚拟机上完成部署。
而分布式部署方式则是适用于大规模的数据,可以在多台物理机或虚拟机上完成部署。
四、Elasticsearch集群的设计原则1.数据安全在Elasticsearch集群的设计中,要保证数据的安全性。
为了确保数据的完整性,建议使用Elasticsearch内置的安全措施,例如在集群中实现HTTPS授权、加密传输等安全性相关的措施。
2.高可用性在Elasticsearch集群中,要保证节点之间的负载均衡和故障转移。
为此,建议使用Elasticsearch的内置负载均衡和自动选择策略等措施,保证集群中每个节点的负载均衡和故障转移的高可用性。
存储体系架构对比分析

Isilon OneFS
其他集群文件系统
架构比较
架构简单,每个节点均对能,功能一致
有管理节点,元数据节点,数据节点
协议支持
内嵌支持标准NFS/CIFS协议
私有协议,使用需安装客户端;如果要使用NFS/CIFS协议,需独立部署NFS/CIFS服务器
文件系统扩容
60秒在线扩容;以单个节点为单位;
扩容方式复杂,耗时长以一对控制器为单位进行扩容;
EMC Isilon 优势
单一文件系统,可扩展致20PB,易管理易扩展,简化运维成熟文件系统,应用已经十年以上,遍布高性能计算,媒体,科学研究,基因测序等领域,全球客户4700以上支持存储分层,可优化性能,降低成本支持文件系统快照,定期保护数据支持远程复制,可进一步提高业务连续性高可靠性保护,最大可以容忍4个节点或4块磁盘同时故障支持Hadoop大数据分析
具备企业级存储特性
快照,远程复制,WORM,虚拟化环境支持
不支持
服务支持
自主知识产权原厂服务
大多根据开源软件;仅能维护外围功能。
性能
单节点性能及聚合性能都排名靠前具体可参考Gartner报告(见后续)
单节点性能差;依靠节点数量达到高聚合带宽
可靠性
N+4(最大容忍4个磁盘或4节点同时损坏)
最多容忍2个磁盘损坏或1个节点损坏
商用集群存储:EMC Isilon,IBM GPFS
开源集群存储:GlusterFS
Байду номын сангаас 集群存储两种部署方式的扩展性
元数据服务器
数据节点
元数据服务器
数据节点
数据节点
数据节点
元数据流
数据流
分布式元数据和数据流
数据集成的N种方式

数据集成的N种⽅式据我了解的⼀些企业,这最近⼏年企业信息化过程中系统没有少上,什么ERP,PDM,CSM,DSERP等算起来将近有七⼋套,在⼀定程度上提⾼了企业的信息化管理⽔平,但是⼜迎来了另⼀个问题。
企业的许多数据在不同的系统中需要维护,经常会出现不同的系统间数据不⼀致的问题,这就需要各系统之间进⾏集成。
由于各系统架构不⼀致,所以⽬前采取的⽅式主要是数据级别的集成。
我总结了⼀下,根据实时性数据集成可以分为两种,实时性和⾮实时的。
⽬前采取的⽅案是⾮实时的,对于各系统间需要整合的数据,是由⼀个系统定时导出成xml格式的数据,然后由另⼀个系统定时来处理。
⾮实时的系统⽐较容易实现,不好的地⽅就在于不能实时实现各系统的⽆缝集成。
⽽实时的系统数据集成就可以采⽤数据库层的直接集成或者通过⾯向服务架构(SOA)来实现,对于不同⼚家的产品,开放数据库接⼝给其他⼚商⼀般来说不太好接受,就是⼀个公司的各个产品之间项⽬开放接⼝也⽐较难接受,个⼈感觉未来发展的趋势主要还是利⽤SOA来实现数据集成。
关于SOA,业界这两年炒得很⽕热,很多公司IBM,SAP,Oracle等都给出了⾃⼰的解决⽅案,⽅案多了让⼈眼花缭乱,也不太好选择,不过在Oracle公司收购了BEA以后,他们在服务器+数据库上的优势使得他们的⽅案跟其他公司相⽐占了不⼩优势。
下⾯是我收集整理的⼀点对Oracle的实时数据集成⽅案的资料,跟⼤家分享⼀下。
实时数据集成⼀般分为两个处理过程:⼀是对数据按照SOA架构的需要进⾏整合加⼯形成可⽤的信息,⼆是将信息以符合SOA规范的⽅式发布出去。
具体的实时数据集成模式可以按照对这两个处理过程的不同分为以下四种:第⼀种是在中间件层上进⾏数据的加⼯整合,同时通过中间件层的标准接⼝将整合后的数据以标准接⼝发布。
在中间层上存在⼀个虚拟的数据服务层,该层通过JDBC,FILE适配器、应⽤适配器等与数据层的各种数据源实现连接,将数据源中的各种数据实体映射成中间件的虚拟数据层的表,虚拟数据层中的表都只有元数据,⽽不存储实际的⽣产数据。
nacos 集群方式

nacos 集群方式Nacos是一个用于动态服务发现、配置管理和服务管理的开源项目。
它提供了一个简单易用的界面和API来管理和监控服务的注册与发现、配置信息的存储与管理,并且支持多种集群方式来实现高可用性和扩展性。
在Nacos中,我们可以通过多种方式来部署集群,以满足不同的需求和场景。
下面将介绍几种常见的Nacos集群方式。
1. 单机模式(Standalone Mode):单机模式是最简单的一种部署方式,它适用于小规模的开发和测试环境。
在单机模式下,Nacos的所有组件都运行在同一台机器上,包括服务注册中心、配置中心和控制台。
这种模式下,Nacos只能支持单机的服务注册与发现、配置的存储和管理,不具备高可用性。
2. 集群模式(Cluster Mode):集群模式是一种常见的部署方式,适用于生产环境中的高可用性和扩展性需求。
在集群模式下,Nacos的各个组件可以运行在不同的机器上,相互之间通过网络进行通信。
其中,服务注册中心和配置中心可以使用多节点部署,并且通过选举算法保证主节点的高可用性。
多节点部署可以提高Nacos的性能和可靠性,当其中一个节点宕机时,其他节点仍然可以继续提供服务。
3. 数据持久化方式:在Nacos中,我们可以选择将数据持久化到本地文件系统或者外部存储(如数据库)中。
对于单机模式而言,数据默认存储在本地文件系统中。
而对于集群模式,数据可以选择存储在共享的外部存储中,如MySQL、MariaDB、Oracle等。
这种方式可以提高数据的可靠性和扩展性,当一个节点宕机时,其他节点可以从外部存储中恢复数据。
4. 读写分离模式:在大规模的生产环境中,读写负载可能会非常高,为了提高系统的性能和扩展性,我们可以使用读写分离模式。
在这种模式下,我们可以将Nacos的读操作(如服务的查询、配置的获取)和写操作(如服务的注册、配置的修改)分别部署在不同的节点上,从而提高系统的并发能力和吞吐量。
5. 多数据中心部署:对于大规模分布式系统而言,不同的数据中心可能会存在不同的网络环境和延迟。
iot集群通讯方式

iot集群通讯方式IoT(物联网)技术的快速发展,使得各种设备可以互联互通,并集成到一个个集群中。
这些设备可以通过不同的通讯方式进行连接和交流。
本文将介绍几种常见的IoT集群通讯方式,并探讨它们的特点和应用。
首先,基于有线连接的通讯方式是IoT集群中常见的一种方式。
有线通讯通过物理电缆进行数据传输,如以太网、串口等。
这种通讯方式具有可靠性高、传输速度快的特点,适用于数据量较大、对实时性要求较高的场景,比如智能工厂中的机器之间的通讯。
其次,基于无线连接的通讯方式是IoT集群中另一种常见的方式。
无线通讯利用无线电波进行数据传输,如Wi-Fi、蓝牙、Zigbee等。
这种通讯方式具有方便灵活、覆盖范围广的特点,适用于设备之间距离较远、数量较多的场景,比如智能家居中各种传感器和执行器之间的通讯。
另外,基于云平台的通讯方式也是IoT集群中的一种重要方式。
通过将设备接入云平台,可以实现设备之间的远程管理和控制。
云平台可以提供设备注册、消息传递、数据存储等功能,同时还可以进行数据分析和智能决策,提供更高级的服务。
这种通讯方式适用于需要集中管理和分析数据的场景,比如智能城市中的交通管理系统。
此外,边缘计算也是IoT集群中的一种重要趋势。
边缘计算将部分计算任务和数据处理推向网络边缘,减少了数据传输的延迟和带宽占用。
通过在设备、网关等边缘节点上进行数据处理和决策,可以提高响应速度和数据隐私性。
边缘计算适用于对实时性要求较高、对隐私保护较敏感的应用场景,比如智能交通中的车辆和路网的协同决策。
在选择IoT集群通讯方式时,应根据具体的需求和场景来选择。
有线通讯方式适用于实时性要求高、数据量大的场景;无线通讯方式适用于设备数量多、距离远的场景;基于云平台的通讯方式适用于集中管理和分析数据的场景;而边缘计算适用于实时性要求高、隐私保护敏感的场景。
通过选择合适的通讯方式,可以实现IoT集群中设备的高效协作和智能化运营,推动物联网技术的进一步发展。
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
集群场景 对比项
基于操作系统集群软件的方式
基于数据库集群组件的方式 双节点数据库集群
授权许可
操作系统许可:2套
数据库许可:1套(或按单节点CPU 数量授权) 集群软件许可:1套
操作系统许可:2套
数据库许可:2套(或按所有节点CPU 总数授权) 集群组件许可:1套(或按所有节点CPU 总数授权)
技术架构
主备方式:
主从(读写分离)方式:
对等不共享方式(MPP 集群):
并行处理方式(RAC ):
特点
1、 主节点对外提供服务,备节点空闲,资源利用率较低;
2、 必需共享存储,主节点故
障时备节点接管共享存储并启动实例,切换时间一般数分钟;
3、 仅一份数据,存放于共享存储中;
1、 主节点对外提供服务,备节点实时数据更新;
2、 无需共享存储,主节点故障时备节点接管服务;
3、 主备节点均有完整数据; 1、 主节点负责写操作;从节点实时数据更新,负责读访问;
2、 无需共享存储;主从节点均有完整数据;
3、 主节点故障,会影响从节点服务;
1、 节点完全对等,均对外提供服务,实现负载均衡;
2、 无需共享存储,各节点存储部分数据,相互调用;
3、 单节点故障不影响整体服务,但该节点保存的数据无法访问;
1、 节点完全对等,均对外提供服务,实现负载均衡;
2、 必需共享存储,存放的数据供所有节点使用;
3、 单节点故障不影响整体服务;
注:操作系统集群软件许可说明:
1、 Windows server 企业版带集群功能;
2、 Linux 平台有厂家授权版本,或第三方授权版本,如赛门铁克VCS 、Rose HA ;
3、 Unix 平台有厂家授权版本,或第三方授权版本,如赛门铁克VCS 、Rose HA ;
集群场景
对比项 基于操作系统集群软件的方式 基于中间件集群组件的方式 双节点中间件集群
授权许可 操作系统许可:2套
中间件许可:1套(或按单节点CPU 数量授权) 集群软件许可:1套
操作系统许可:2套
中间件许可:2套(或按所有节点CPU 总数授权) 集群组件许可:一般企业版含集群功能,标准版不含。
技术架构
特点
1、 主节点对外提供服务,备节点空闲,资源利用率较低;
2、 可选共享存储;无共享存储时,主、备节点需同时升级中
间件及更新配置;
1、 节点完全对等,均对外提供服务,实现负载均衡;
2、 无需共享存储,部署升级时各节点的中间件配置需一致。