Vmware vSphere -5 构建ISCSI及连接
如何在VMware环境中实施、配置iSCSI存储

如何在VMware环境中实施、配置iSCSI存储通过这篇文章你将学到:学会如何在VMware环境中实施、配置iSCSI存储。
遵循这些最佳实践,让你的iSCSI数据存储获得最大的性能和可靠性。
在VMware环境下实施iSCSI存储是许多数据存储专业人员在2011年将要考虑的。
他们中的很多人听到有关iSCSI和FC存储好处的对比已经很多年了,而现在他们讨论的是,当使用VMware时如何配置iSCSI。
在价格方面,通常实施iSCSI存储比FC存储便宜;性能方面,通过使用10Gb以太网,iSCSI的性能提高了,这也是iSCSI存储最主要的好处。
不好的一面是,实施iSCSI存储通常会带来额外的CPU开销。
不过,VMware已经改写了theiSCSI软件启动堆栈,从而更有效地利用CPU周期,与VMware Infrastructure 3(VI3)相比,这带来了显着的效率和吞吐量的提高。
在VMware环境下使用iSCSI存储的最佳实践一旦iSCSI磁盘配置好了,虚拟机(VMs)就可以使用它们了。
以下列出的最佳实践可以帮助你在VMware环境中的iSCSI数据存储获得最大的性能和可靠性。
iSCSI存储的性能高度依赖于网络的健康和使用。
为了达到最佳效果,你应该总是通过专用的网络将iSCSI的流量分离出来。
你只能在一个ESX服务器主机上配置一个软件启动器。
配置为iSCSI提供连接的vSwitch时,使用多个物理网卡来提供冗余。
确保你将VMkernel(虚拟机内核)接口与vSwitch 的网卡绑定在一起,这样多路径配置才正确。
确保你在iSCSI vSwitch上使用的网卡连接到不同的网络交换机,以消除单点故障。
vSphere支持使用存储协议的巨型帧,但它只对那些拥有非常大I/O的特定工作量有好处。
此外,你的后端存储必须能够处理RAID组中拥有大量主轴(大于15)增加的吞吐量,否则你也看不到任何好处。
如果你的I/O小并且你的存储是主轴方向的(spindle-bound),使用巨型帧你将看到你的性能很少或者没有提高在某些情况下。
如何加载iSCSI到vSphere虚拟环境

在通过数台虚拟服务器平台共同使用一个存储池的架构里,企业可以对虚拟环境进行更多的进阶管理,我们将利用DataCore的SANMelody实作软件式的iSCSI环境,扩增存储容量并示范如何连接至虚拟化平台。
在同时拥有多台虚拟平台服务器(例如Citrix XenServer、VMware vSphere、微软Hyper-V)的环境下,存储池(也称之为共享存储服务器)是一项不可或缺的重要组件,通过数台虚拟平台服务器共同使用一座存储池的架构,企业可以针对虚拟环境从事更多的进阶管理,这其中以VMotion这一类的在线动态移转技术最具代表性,在不搬动虚拟机文件的前提下,仅需透过网络将暂存在服务器内存的少量数据搬移到另外一台虚拟平台服务器运作,而不会造成长时间的断线,方便企业维修、升级,或者是排除服务器硬件上的故障。
使用iSCSI做为虚拟平台存储池为了减少后续管理上的不便,大部份企业都是在导入虚拟化技术的初期,将存储池一并建置完毕,然而,在多种能够搭配虚拟化平台运作的方案之中,iSCSI是一种成本较低廉的选择,因此十分受到企业欢迎。
iSCSI有软、硬件2种产品,软件产品的好处在于建置成本较低,可安装在现有的服务器硬件上运作,不一定需要额外购买专用的服务器才能提供服务,至于硬设备的优点则是具备较佳的效能,这次我们这次使用的DataCore SANMelody是属于软件产品,搭配VMware新版的vSphere套件,建立一个iSCSI存储池,放置虚拟机运作所需的文件。
DataCore SANMelody本身是付费软件,我们可以从官网取得30天的试用版本,如果想要长期使用,网络上也有免费的同类型软件可供选择,目前比较具代表性的有StarWind及FreeNAS等2套。
StarWind的免费版本只能建立2GB大小的iSCSI扇区,想要取消这个限制,就必须付费购买更高阶的完整版,至于FreeNAS则没有容量上限,不过套件本身是由FreeBSD 所衍生而来,对于少数不熟悉接口操作的用户来说,可能有应用门坎,不过网络上可供参考的数据很多,可以帮助我们解决设定过程中所碰到的各项问题。
vSphere5.5中安装使用iSCSI方法

vSphere5.5中安装使用iSCSI方法将安装Windows Server 2003 x64 SP2的服务器做为iSCSI Target服务。
软件可在/data/319328下载,这个版本只能在Windows Server 2003中使用,如在2008中使用请下载3.2版本。
解压MS_ISCSI_Version_3_1_3455.rar,进入Target目录,按以下命令执行安装:F:\tools\MS_ISCSI_Version_3_1_3455\Target>MSiSCSITarget.bat Install命令执行后屏幕显示:F:\tools\MS_ISCSI_Version_3_1_3455\Target>set AppFiles=WinTarget.exe WTWmiProv.dll WinTargetRes.dll WinTargetps.dll WTCli.exe WTSnapIn.dll iSCSITarget.msc WTSnapInRes.dll WTStatusProxy.exe WTStatusProxyps.dll WmiWtProvider.mof WmiWtRemove.mof HATargetConfig.exe HATargetConfigRes.dll WTClusRes.dll WTClusResRes.dll WmiWt SnapshotEvtProv.mof WmiWtSnapshotEvtProvRem.mofF:\tools\MS_ISCSI_Version_3_1_3455\Target>REM set PortDriverFiles=iscsiprt.sysF:\tools\MS_ISCSI_Version_3_1_3455\Target>set HelpFiles= Storageiscsi.chmF:\tools\MS_ISCSI_Version_3_1_3455\Target>REM set WTLMDRV_HARDWARE_ID="ROOT\iSCS IPrt\WTLMDrv_REV21"F:\tools\MS_ISCSI_Version_3_1_3455\Target>remF:\tools\MS_ISCSI_Version_3_1_3455\Target>rem Figure out what to do.F:\tools\MS_ISCSI_Version_3_1_3455\Target>remF:\tools\MS_ISCSI_Version_3_1_3455\Target>if nInstall == nInstall goto DoInstallF:\tools\MS_ISCSI_Version_3_1_3455\Target>remF:\tools\MS_ISCSI_Version_3_1_3455\Target>rem Copy binaries to system32 folder.F:\tools\MS_ISCSI_Version_3_1_3455\Target>remF:\tools\MS_ISCSI_Version_3_1_3455\Target>for %i in (WinTarget.exe WTWmiProv.dll WinTargetRes.dll WinTargetps.dll WTCli.exe WTSnapIn.dll iSCSITarget.msc WTSnapInRes.dll WTStatusProxy.exe WTStatusProxyps.dll WmiWtProvider.mof WmiWtRemove.mofHATargetConfig.exe HATargetConfigRes.dll WTClusRes.dll WTClusResRes.dll WmiWtSn apshotEvtProv.mof WmiWtSnapshotEvtProvRem.mof) do copy AMD64\%i C:\WINDOWS\syste m32F:\tools\MS_ISCSI_Version_3_1_3455\Target>copy AMD64\WinTarget.exe C:\WINDOWS\sy stem32已复制 1 个文件。
[VMware]vSphere 5 安装手记[3]-在vSphere5上创建一台VM虚拟机
![[VMware]vSphere 5 安装手记[3]-在vSphere5上创建一台VM虚拟机](https://img.taocdn.com/s3/m/27e6baa9b0717fd5360cdc24.png)
[VMware]vSphere 5 安装手记[3]-在vSphere5上创建一台VM虚拟机vSphere 刚推出时曾被奉为云操作系统,作为新一代的虚拟机系统它的功能当然是非常强大的,本次的手记只能先演示如何创建一台虚拟机并为之安装操作系统,相关vSphere 更多的功能设置我们会在后续的手记中再大家一起学习分享。
接前两篇,在vSphere Client的主界面左侧树列表上选中我们的ESXi 服务(IP),右键菜单中选择“新建虚拟机”;或者在右侧主窗口/"基本任务"中选择"创建新虚拟机" 如下图:接下来的操作以及界面提示都非常类似于VMware Workstation,有经验的朋友将会觉得很熟悉;选"典型" 下一步...为虚拟机取个名字...下一步目标位置,这里目标位置不是当前这台机器哦,而是我们的ESXi 服务器上的磁盘空间... 下一步操作系统类型,vSphere所支持的操作系统类型貌似比XenServer 要少一些,不过主流的Linux 和Windows 系统都具备了;这里可以根据我们需要自行选择。
网卡配置...下一步磁盘容量设置...下一步完成;虚拟机创建完成以后就可以开始安装操作系统了,安装操作系统将会用到光驱或ISO ,这里有一点有区分的是在默认情况虚拟连接的是ESXi 服务器上的ISO 文件或光驱,这点显然操作起来不是很方便;在启动虚拟机后(必须先启动,否则选项是灰色的),可以设置DVD驱动器"连接本地磁盘上的ISO 镜像"或者连接X: ( 光驱盘符) , 此处的本机及驱动器盘符指的就是当前我们操作vSphere Client 的机器;如下图:从本地加载安装光盘成功后,就可以开始系统安装了....如下图....(Windows 安装过程略)...其实我们只要仔细看一下vSphere Client 很多地方还是和VMware Workstation 一致的,相关设置(如下图):其实都延续了传统的VMW 中的配置;大家有兴趣可以深入体验;。
VMware vSphere 5虚拟数据中心构建指南第二章

第2章vSphere 5的演变和架构组件2.1 VMware概述2.2 vSphere 5许可证2.3 vSphere 5的新增功能2.4 现有功能2.5 单独销售的软件2.6 vSphere 5技术架构2.7 安全性2.8 发展的解决方案16 VMware vSphere 5虚拟数据中心构建指南在深入研究VMware新的vSphere 5产品的软件组件和架构之前,我们先来看看这家公司及其虚拟化产品的演变过程。
2.1 VMware概述VMware由如下几位知名人士于1998年创立:Diane Greene,总裁兼总经理(1998~2008年)Mendel Rosenblum博士,首席科学家(1998~2008年)Scott Devine,主任工程师(1998年起)Edward Wang博士,主任工程师(1998~2009年)Edouard Bugnion,首席架构师(1998~2004年)2004年,EMC以6.25亿美元的价格收购了VMware。
在收购时,该公司的销售额已经达到约1亿美元,拥有370名员工。
2011年,销售额接近37亿美元,到2012年,公司的雇员已经超过9000人。
Pat Gelsinger于2012年9月就任VMware的CEO(此前,Paul Maritz从2008年7月起担任这一职务)。
2.1.1 VMware产品线在过去几年,VMware的产品线有了很大的扩展。
早年,该公司主要提供虚拟化管理器,而现在的重心已经扩展到云计算服务、管理工具、协作工具和应用程序。
本书的焦点是vSphere 5的数据中心虚拟化平台,并将详细介绍作为数据中心管理基础的组件,书中提及的其他组件仅是为了提供信息。
图2-1提供了VMware目前产品的一个概览。
图2-1 VMware产品线第2章 vSphere 5的演变和架构组件 17VMware 的策略明显是面向云计算解决方案,包括了图2-2中所示的元素。
VMware vSphere配置iSCSI及NFS存储

VMware vSphere 4.1虚拟化学习手册8:配置iSCSI及NFS存储上一篇([VMware vSphere 4.1虚拟化学习手册7:存储基础] )介绍了VMware vSphere存储,这里看看如何配置iscsi及NFS共享存储。
FC SAN的配置和iscsi 配置方法基本一致,这里由于环境限制不做介绍。
测试环境如下:•两台esx Server•一台windows 2008做vCenter•freenas做iscsi服务器iSCSI存储简介:iSCSI 是把SCSI指令集封装在以太网协议中,通过现有的IP网络来传输存储数据;iSCSI存储一般分为服务器端(Target)和客户端连接器(Initiator),其中Initiator可以分为硬件和软件2种,硬件Initiator一般称作iSCSI HBA 卡,因为SCSI指令集的装载通过HBA卡完成,所以硬件Initiator比软件Initiator效率更高,并且可显著降低iSCSI对主机 CPU的使用率;ESX已内置软件Initiator,并且也支持iSCSI HBA卡(具体可参考vSphere硬件兼容性网站)。
这里我们使用的是FreeNAS作为iSCSI服务器的软件iSCSI方式。
VMware vSphere中配置iSCSI需要建立一个单独的存储网络来走存储流量,参考[VMware vSphere 4.1虚拟化学习手册5:虚拟交换机vSwitch]首先添加VMkernel,这个网络是专门用来走iSCSI和NFS存储数据的选择VMkernel使用的vSwitch设置VMkernel使用的名称及是否用作vMotion配置VMkernel的IP地址及网关确认添加VMkernel配置完成配置之后再vSwitch0下多了一个VMkernel的虚拟端口。
接下来添加iscsi存储器开启软件iscsi功能在动态发现中输入iscsi服务器地址,如果只是要加入iscsi服务器中的某块硬盘可以选择静态发现添加成功之后就可以看到新增了一个iscsi software adapter的存储适配器及这块适配器下的两个iscsi硬盘接下来添加存储器,也就是我们存储虚拟机的存储空间选择磁盘/LUN选择可用的iSCSI磁盘显示选择的磁盘状况为数据存储起一个名称选择块大小及容量确认添加添加完成之后再存储数据中就可以看到新增加的iscsi空间了接着在看看如何配置NFS存储关于NFS的介绍可以参考:[Redhat Linux下NFS的配置及操作] 再添加一个存储控制器,选择网络文件系统输入服务器地址,nfs的目录,再给数据存储起个名称确认配置配置完成之后可以在数据存储中看到新增的nfs1在同一个数据中心中,只要一台服务器添加了iscsi共享存储,其他服务器会自动添加这些iscsi共享存储,也就是只需要添加一次就可以了。
vSphere下如何添加iSCSI存储
vSphere下如何添加iSCSI存储Step 1:为软件iSCSI创建VMkernel端口。
●vSwitch连接的网卡要求是千兆适配器。
IP地址与iSCSI可在相同的子网,也可在不同的网络,但要求可路由到iISCSI storage。
Step 2:启用软件iSCSI启动器●Configuration>Storage Adapters选项中,选择要配置的iSCSI启动器,然后单击属性。
●单击[Configure],此时将打开常规属性对话框,显示启动器的状态、默认名称和别名。
●要启用启动器,请选择已启用。
●要更改启动器的默认iSCSI名称,请输入新的名称。
●单击确定保存更改。
Step 3:配置 iSCSI 启动器的发现地址●在iSCSI属性配置中选择[Dynamic Discovery],单击[Add].●输入iSCSI存储系统的IP地址或DNS名称。
在主机与此系统建立“发送目标”会话后,新发现的任何目标均将出现在“静态发现”列表中。
●点击[CHAP]。
●选择[Do no use CHAP],点击[OK]。
返回上一级菜单。
●再点击[OK]确定以上选项。
●提示适配器总线发生变化,建议重新扫描。
点击[Yes]进行扫描。
●自动扫描后,新发现的LUN将显示在设备列表上。
●也可选择手动扫描。
点击右上方[Rescan]进行扫描。
Step 4:创建 VMFS 数据存储前提条件:创建数据存储之前,必须安装和配置存储器所需的全部适配器。
重新扫描适配器以发现新增的存储设备。
适用于添加本地存储、iSCSI存储及SAN存储。
●打开Configuration>Storage选项,显示主机已有的VMFS分区信息。
●点击右上方[Add Storage]。
●对于iSCSI存储存储选择[Disk/LUN]。
●点击[Next]。
●点击[Next]。
●如果要格式化的磁盘是空白磁盘,则“Current Disk Layout”页面将自动显示整个磁盘空间,以进行存储器配置。
VMware vSphere Client 5 的安装及配置
目录VMware vSphere Client 5 的安装及配置 (1)1 VMware vSphere Client 5的简介 (1)2安装VMware vSphere Client 5 (1)3通过VMware vSphere Client登录Esxi5,并安装虚拟机 (6)4网卡的介绍 (35)VMware vSphere Client 5 的安装及配置1 VMware vSphere Client 5的简介vSphere Client是用于访问ESXI主机或vCenter的图形管理用户界面。
vSphere Client 5安装在windows计算机上,它是与虚拟基础架构进行交互的主要方法。
2安装VMware vSphere Client 52. 1运行下载的Sphere Client 5选择安装语言为中文,如图2-1,2-2所示。
图2-1图2-22.2进入安装向导。
单击“下一步”,如图2-3所示。
图2-32.3同意许可协议并单击“下一步”,如图2-4所示。
图2-42.4填写客户信息并单击“下一步”,如图2-5所示。
图2-52.5设置安装程序的路径,如果没有特殊情况请按默认安装,点击“下一步”,如图2-6所示。
图2-62.6单击“安装”,开始程序的安装,如图2-7所示。
图2-7 2.7安装进行中,如图2-8所示。
图2-8 2.8 安装“完成”,如图2-9所示。
图2-93通过VMware vSphere Client登录Esxi5,并安装虚拟机3.1打开桌面的VMmare vSphere Client图标,如图3-1所示。
图3-13.2 输入服务器IP,用户名及密码,点击“登录”,如图3-2所示。
图3-23.3 新建资源池,这样便于对虚拟机进行管理,右击服务器,选择“新建资源池”,如图3-3所示。
图3-33.4 输入资源池名称“test”,点击“确定”,如图3-4所示。
图3-43.5 新建虚拟机,在资源池上添加虚拟机,这样我们所添加的虚拟机就会在特定的资源池里,便于我们的管理,右击刚刚添加的资源池“test”,双击“新建虚拟机”,如图3-5所示。
5.vsphere(创建和管理虚拟网络)
现任明教教主VMware vSphere 5作者:现任明教教主马海波现任明教教主北京Yeslab 安全实验室出品 1.vSphere 5.0简介2.安装部署VMware ESXi 5.03.安装vCenter 4.创建配置FC 存储设备以及SAN Boot 5.创建和管理虚拟网络6.创建和管理iSCSI 存储7.创建和管理VM 8.安全访问控制9.管理资源分配10.高可用性11.监控vSphere 性能12.VMware View 桌面虚拟化系统13.VSA Cluster 部署与应用内容简介第一部分:术语介绍第二部分:配置标准交换机第三部分:配置分布式交换机第四部分:Cisco Nexus 1000v介绍内容简介创建和管理虚拟网络内容简介现任明教教主/heymo vSphere 5.0第一部分术语介绍第一部分术语介绍现任明教教主/heymo vSphere 5.0虚拟网络第一部分术语介绍现任明教教主/heymo vSphere 5.0虚拟网络是由虚拟和物理网络适配器,虚拟和物理交换机组成。
第一部分现任明教教主/heymo vSphere 5.0术语介绍术语介绍(1)vNetwork Standard Switch (vSwitch):A software-based switch that resides in the VMkernel and provides traffic management for virtual machines. Users must manage vSwitches independently on each ESXi host.vNetwork Distributed Switch:A software-based switch that resides in the VMkernel and provides traffic management for virtual machines the VMkernel. Distributed vSwitches are shared by and managed across entire clusters of ESXi hosts.第一部分现任明教教主/heymo vSphere 5.0术语介绍术语介绍(2)Port/port group:A logical object on a vSwitch that provides specialized services for the VMkernel or VMs. A virtual switch can contain a VMkernel port or a VM port group. On a vSphere Distributed Switch, these are called dvPort groups.第一部分现任明教教主/heymo vSphere 5.0术语介绍术语介绍(3)VMkernel port :A specialized virtual switch port type that is configured with an IP address to allow vMotion, iSCSI storage access, network attached storage (NAS) or Network File System (NFS) access, or vSphere Fault Tolerance (FT) logging. Now that vSphere 5 includes only VMware ESXi hosts, a VMkernel port also provides management connectivity for managing the host. A VMkernel port is also referred to as a vmknic.Virtual machine port group :A group of virtual switch ports that share a common configuration and allow virtual machines to access other virtual machines or the physical network.第一部分现任明教教主/heymo vSphere 5.0术语介绍术语介绍(4)Virtual LAN:A logical LAN configured on a virtual or physical switch that provides efficient traffic segmentation, broadcast control, security, and efficient bandwidth utilization by providing traffic only to the ports configured for that particular VLAN.Trunk port (Trunking) :A port on a physical switch that listens for and knows how to pass traffic for multiple VLANs. It does this by maintaining the VLAN tags for traffic moving through the trunk port to the connected device(s). Trunk ports are typically used for switch-to-switch connections to allow VLANs to pass freely between switches. Virtual switches support VLANs, and using VLAN trunks allows the VLANs to pass freely into the virtual switches.第一部分现任明教教主/heymo vSphere 5.0术语介绍术语介绍(5)Access port:A port on a physical switch that passes traffic for only a single VLAN. Unlike a trunk port, which maintains the VLAN identification for traffic moving through the port, an access port strips away the VLAN information for traffic moving through the port.Network interface card team:The aggregation of physical network interface cards (NICs) to form a single logical communication channel. Different types of NIC teams provide varying levels of traffic load balancing and fault tolerance.第一部分现任明教教主/heymo vSphere 5.0术语介绍术语介绍(6)vmxnet adapter:A virtualized network adapter operating inside a guest operating system. The vmxnet adapter is a high-performance, 1Gbps virtual network adapter that operates only if the VMware Tools have been installed. The vmxnet adapter is sometimes referred to as a paravirtualized driver. The vmxnet adapter is identified as Flexible in the virtual machine properties.vlance adapter:A virtualized network adapter operating inside a guest operating system. The vlance adapter is a 10/100Mbps network adapter that is widely compatible with a range of operating systems and is the default adapter used until the VMware Tools installation is completed.第一部分现任明教教主/heymo vSphere 5.0术语介绍术语介绍(7)e1000 adapter:A virtualized network adapter that emulates the Intel e1000 network adapter. The Intel e1000 is a 1Gbps network adapter. The e1000 network adapter is most common in 64-bit virtual machines.第一部分现任明教教主/heymo vSphere 5.0术语介绍设计网络前需要考虑的问题1.Do you have or need a dedicated network for management traffic, such as for the management of physical switches? (是否需要设计专用的管理网络)2.Do you have or need a dedicated network for vMotion traffic?(是否需要专用的网络来做vMotion)3.Do you have an IP storage network? Is this IP storage network a dedicated network? Are you running iSCSI or NAS/NFS?(是否需要一个IP存储网络,是否需要专用的存储网络,使用iSCSI还是NAS/NFS技术)4.How many NICs are standard in your ESXi host design?(ESXi主机有多少个网卡)5.Do the NICs in your hosts run 1 Gb Ethernet or 10 Gb Ethernet?(网卡是1Gb还是10Gb以太网)6.Is there a need for extremely high levels of fault tolerance for VMs?(是否需要为VM启用FT功能)7.Is the existing physical network composed of VLANs?(物理网络是否使用VLAN技术)8.Do you want to extend the use of VLANs into the virtual switches?(是否在虚拟交换机中使用VLAN)第一部分/heymo vSphere 5.0现任明教教主术语介绍第二部分配置标准交换机第二部分配置标准交换机现任明教教主/heymo vSphere 5.0第二部分现任明教教主/heymo vSphere 5.0配置标准交换机Virtual switches介绍Virtual switches分为两种类型:1.vNetwork Standard Switches2.vNetwork Distributed SwitchesVirtual switches能够提供如下通讯:1. between virtual machines within an ESXi host2. between virtual machines on different ESXi hosts3. between virtual machines and physical machines on the network4. for VMkernel access to networks for VMotion, iSCSI, NFS, or fault tolerance logging (and management on ESXi)第二部分现任明教教主/heymo vSphere 5.0配置标准交换机vSwitch和物理Switch的区别(1)vSwitches do have some differences from physical switches.A vSwitch does not support the use of dynamic negotiation protocols for establishing 802.1q trunks or port channels, such as Dynamic Trunking Protocol (DTP) or Port Aggregation Protocol (PAgP). A vSwitch cannot be connected to another vSwitch, thereby eliminating a potential loop configuration. Because there is no possibility of looping, the vSwitches do not run Spanning Tree Protocol (STP). Looping can be a common network problem, so this is a real benefit of vSwitches.总结:不支持DTP和PAgP,不运行STP第二部分现任明教教主/heymo vSphere 5.0配置标准交换机vSwitch和物理Switch的区别(2)1. A vSwitch authoritatively knows the MAC addresses of the virtual machines connected to that vSwitch, so there is no need to learn MAC addresses from the network.(无需学习MAC)2. Traffic received by a vSwitch on one uplink is never forwarded out another uplink. This is yet another reason why vSwitches do not run STP.(不会把一个uplink的流量发送给另一个uplink)3. A vSwitch does not need to perform Internet Group Management Protocol (IGMP) snooping because it knows the multicast interests of the virtual machines attached to that vSwitch.(不需要执行IGMP)第二部分现任明教教主/heymo vSphere 5.0配置标准交换机Uplink介绍就不能和物理网络进行通讯如果没有Uplink第二部分现任明教教主/heymo vSphere 5.0配置标准交换机两种不同的Port和Port Group1. VMkernel port2. Virtual Machine port group第二部分配置标准交换机现任明教教主/heymo vSphere 5.0Virtual switches alone can't provide connectivity,they need ports or port groups and uplinksPort and Port Group第二部分现任明教教主/heymo vSphere 5.0配置标准交换机Vmkernel网络VMkernel ports are used for VMotion, iSCSI, NAS/NFS access, and VMware FT. With ESXi,VMkernel ports are also used for management.第二部分现任明教教主/heymo vSphere 5.0配置标准交换机)添加Vmkernel (1第二部分现任明教教主/heymo vSphere 5.0配置标准交换机)添加Vmkernel (2第二部分现任明教教主/heymo vSphere 5.0配置标准交换机Virtual Machine网络The virtual machine port group is quite different from a VMkernel port. Both of the other ports have a one-to-one relationship with an interface.A virtual machine port group, on the other hand, does not have a one-to-one relationship, and.it does not require an IP address第二部分现任明教教主/heymo vSphere 5.0配置标准交换机)添加Virtual Machine网络(1第二部分现任明教教主/heymo vSphere 5.0配置标准交换机)添加Virtual Machine网络(2第二部分现任明教教主/heymo vSphere 5.0配置标准交换机)添加Virtual Machine网络(3第二部分现任明教教主/heymo vSphere 5.0配置标准交换机NIC Teaming介绍NIC teaming involves connecting multiple physical network adapters to single vSwitch. NIC teaming provides redundancy and load balancing of.network communications to VMkernel, and virtual machines第二部分现任明教教主/heymo vSphere 5.0配置标准交换机)配置NIC Teaming(1第二部分现任明教教主/heymo vSphere 5.0配置标准交换机)配置NIC Teaming(2第二部分现任明教教主/heymo vSphere 5.0配置标准交换机)配置NIC Teaming(3第二部分现任明教教主/heymo vSphere 5.0配置标准交换机NIC Teaming已有vSwitch配置第二部分现任明教教主/heymo vSphere 5.0配置标准交换机配置负载均衡第二部分现任明教教主/heymo vSphere 5.0配置标准交换机三种负载均衡方式1.Virtual Switch Port Load Balancing2.Source MAC Load Balancing3.IP Hash Load BalancingPort和Source Mac负载均衡能够连接多个物理交换机,802.3ad的link aggregation却不行。
vSphere 5 iSCSI 存储配置
SRM 实战之 vSphere 5 iSCSI 存储配置(1)2011-12-23 10:45 Ivan Liao 51CTO 我要评论(0)字号:T | T本章节节选自VMware SRM 5.0安装配置手册,主要为您介绍 iSCSI 存储配置网络(所有站点)。
AD:为iSCSI存储配置网络 (所有站点)在连接到iSCSI或者NFS类型的存储之前,您需要为ESX/ESXi服务器的虚拟交换机添加类型为VMkernel网络端口。
您可以为现有的虚拟交换机添加VMkernel网络端口,或者为iSCSI存储新建独立的虚拟交换机以获得更佳的性能。
第1步:添加VMkernel类型虚拟交换机在清单中选择需要连接iSCSI存储的ESX/ESXi 服务器,然后选择Configuration配置标签页,从配置清单中选择 Networking ,然后点击右上角的Add Networking…链接打开网络配置向导;在连接类型中选择VMkernel,然后电解Next按钮继续;第2步:为虚拟交换机选择上行网络适配器使用独立的网络适配器作为iSCSI存储连接将会获得更佳的性能。
在此文档示例中将使用vmnic1 作为iSCSI存储连接适配器,vmnic0 默认已经被用于虚拟机以及管理控制台连接;给新建的虚拟交换机端口/端口组命名;第3步:为VMkernel配置连接设置输入IP地址,网络掩码以及配置网关,然后完成配置;新增的vSwitch1交换机中命名为VMK-iSCSI的端口用于iSCSI连接,使用ESX/ESXi服务器的第二块物理网卡vmnic1作为上行网络适配器。
请确定此网络适配器在生产中与您iSCSI存储服务器连接在同一物理交换机,并相应修改防火墙设置。
添加以及配置iSCSI软件适配器(所有站点)vSphere 5默认没有配置 iSCSI 软件适配器,您必须手工添加。
第1步:添加 iSCSI 软件适配器在vSphere Client中选择ESX/ESXi服务器,然后选择 Configuration 标签,在配置清单中选择Storage Adapters ,然后点击Add…链接;点击OK按钮确认添加iSCSI软件适配器;vSphere Client提示您需要在添加适配器后进行配置以访问iSCSI目标。
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
vSphere 虚拟平台构建
构建ISCSI与连接
ESX 存储模式简介
名词注释
iSCSI(Internet SCSI): SCSI over TCP/IP
VMFS(Vmware file system): VMware虚拟机文件系统
NAS (network attached storage): network disk storage,网络磁盘存储设备
NFS (network file system): 网络文件系统
LUN (logical unit number):一组地址符号,用于鉴别SCSI
本地SCSI 存储器
1
本地存储器使用基于SCSI 的设备,如ESX 主机的硬盘或与主机直接相连的外部专用存储系统。
在这个本地存储器拓扑示例中,ESX 主机使用单一连接来插入磁盘。
可以在该磁盘上创建VMFS 数据存储,以存储虚拟机磁盘文件。
虽然可以使用这种存储器配置拓扑,但不推荐使用。
如果在存储阵列和主机间使用单一连接,那么,在连接不稳定或出现故障时,会产生将导致中断的单一故障点(SPOF)。
光纤通道存储器
2
ESX 支持光纤通道适配器,这些适配器允许主机连接到SAN 并查看SAN 上的存储设备。
安装光纤通道适配器之后,主机才能显示FC 存储设备。
在该配置中,ESX 主机通过光纤通道适配器连接到SAN 结构(包括光纤通道交换机及存储阵列)。
此时,存储阵列的LUN 变得对于主机可用。
您可以访问LUN 并创建用于满足存储需求的数据存储。
数据存储采用VMFS格式。
iSCSI 存储器
3
ESX 支持iSCSI 技术,通过该技术主机可使用IP 网络访问远程存储器。
借助iSCSI,可将虚拟机向其虚拟磁盘发出的SCSI 存储器命令转换为TCP/IP 数据包,并将其传输至存储虚拟磁盘的远程设备或目标。
要访问远程目标,主机需要使用iSCSI 启动器。
启动器在IP 网络上的主机与目标存储设备之间传输SCSI 请求和响应。
ESX 支持基于硬件的和基于软件的iSCSI 启动器。
必须配置iSCSI 启动器以使主机能够访问和显示iSCSI 存储设备。
在左侧示例中,主机使用硬件iSCSI 适配器连接到iSCSI 存储系统。
在右侧示例中,主机使用软件iSCSI 启动器配置。
主机使用软件启动器,通过现有网络适配器连接到iSCSI 存储器。
此时,存储系统中的iSCSI 存储设备变得对于主机可用。
用户以访问存储设备并创建用于满足存储需求的VMFS数据存储。
安装Openfiler
Openfiler大家应该都不陌生,在这里就不介绍了。
在Workstation中新建一个Red hat4或者5版本的虚拟机,这里分配了512M的内存,3G的硬盘容量(我不懂Linux 的系统分区是怎么一回事,所以这块硬盘作系统,装完后再加一块作存储),这里openfiler是2.3版。
4
5
6
7选择YES
8
据说安装openfiler系统3个G就够了,
9使用默认分配
这里的IP地址按照具体的情况配置,点击Edit 配置静态IP地址
10分配静态IP
11设置时区
12
13
现在关掉虚拟机,加装一块新硬盘作存储。
14
Openfiler服务器安装过程就结束了。
使用Openfiler 系统实现iSCSI
下面介绍登录Web页面配置实现iSCSI 的过程,使用域内的机器打开链接
https://(openfiler服务器IP):446/ 登录Openfiler服务器页面,输入初始的用户名“openfiler”和密码“password”。
15
登陆后一般首先要设置时间,更改用户密码,这里略过。
首先打开system中的network setup 页面,拖动到页末,在Network Access cfg中配置准许登入的主机,这里为了方便测试将整个网段添加进去,也可以只填ESX主机的地址,单击Update。
16
打开Volume 中Block Devices 页面,这里列出了所有的磁盘。
17
选择第二块磁盘,点击磁盘标签/edv/sdb ,
在partition type中选择Physical volume 将该磁盘全部容量建立为物理卷。
18单击Create
打开volume Groups 页面,把刚才建立的分区,添加到卷组中(一个卷组可以集中多个在不同磁盘分布的物理卷),
19设置卷组名并添加磁盘分区
20添加成功
在实际的应用中,经过之前的操作,可以将多块硬盘以及分散的分区逻辑上当做一块硬盘来对待,由于现在的操作是针对一块物理硬盘(其实是虚拟磁盘)的,看起来反倒变复杂了。
下面我们就在这块逻辑磁盘上再设立分区。
单击add volume,在下图所示的区域中配置分区。
在这里我们将磁盘分为一个区,磁盘容量拖动到最大,文件系统设置为iSCSI
21
当前卷组的分区情况。
22 iSCSI 分区成功建立
打开Services —Manage services页面将iSCSI 服务启用如下图
23
打开Volume—iSCSI Targets界面
单击add 将新建的iSCSI分区作为iSCSI对象
24
打开LUN Mapping选项卡,单击Map添加映射关系。
25
打开Network ACL 选项卡,将权限设置为Allow 单击Update。
26
对Openfiler iSCSI的设置就结束了。
iSCSI与ESX的链接
登录ESX控制台,在配置下打开网络选项卡,单击vSwitch的属性,添加一个vmKernel端口,操作如下图所示。
27
28
29
打开存储适配器选项卡,选中iSCSI Software Adapter,打开属性窗口。
30
打开配置对话框,勾选启用,单击确定。
31
打开动态发现选项卡,打开添加对话框,输入ISCSI 设备的IP地址或名称,使用默认端口。
32
33系统发现了ISCSI设备
这时系统会提示有重要的更改,需要重刷新设备,选择“是”。
34成功识别ISCSI
打开存储器页面,选择添加存储器。
35
选择存储器类型为“磁盘/ LUN”,单击下一步
系统会自动搜索对应的设备。
如下图,按照提示添加数据存储。
36
如果此时磁盘不为空,还要做必要的设置,以确保数据的安全。
37
38
39
40
41 至此Openfiler 与ESX的连接设置就完成了。