虚拟机Xen网络配置及原理

虚拟机Xen网络配置及原理
虚拟机Xen网络配置及原理

虚拟机Xen网络配置

虚拟化是目前一门炙手可热的技术,它给我们带来的好处在各个层次都有体现,作为一个网络管理者来说,搭建和维护服务器更是我们职责所在!目前的服务器配置可以说是相当高了,单核cpu的时代也已经渐渐离我们远去,在我们使用多核cpu以及大内存服务器的的同时,我们是否想过这些服务器的性能是否完全都使用上了?举个例子来说,假设公司有一台IBM System x3650,它配备Xeon 5450cpu(四核心),二级缓存高达12M,最大支持48gb内存,在这样一台如此强劲的服务器上如果只跑一两个应用的话是否浪费了很多的性能呢?

当然,你完全可以把企业中很多的应用都跑在这一台服务器上,这样做虽然是可以的,但是大家都知道,在单个OS上跑的应用越多,出问题的系数也就越高,往往会因为其中某一个应用的问题而导致整个OS崩溃,再或者某个应用支持的系统平台不同,我们需要多个OS来支持,如此以来是否又要购买服务器来达到我们的需求?如果在虚拟化技术没出现之前,我们只能购买更多的服务器来支持更多的应用,无论在维护还是资金上都是一笔不小的投入,不过此刻的我们非常幸运,在这个虚拟化技术流行的时代,那些曾经不可能实现的问题已经不再是问题了,在此我也非常感谢那些在虚拟化技术上投入心血的人们.我们现在完全可以实现在一台物理机上同时跑多个OS!

很多管理员都用过VMware Workstation或者vpc,我们把它们称作虚拟机软件,我们可以在其上安装和物理机不同的OS,在我们需要测试某些程序或者搭建一些环境的时候经常使用到他们,在虚拟机上跑的OS即便是崩溃了也不会影响我们物理机上的任何应用,那我们是否把他们应用在服务器虚拟化层面呢?在这里我不建议这么去做,因为以上提到的两款虚拟机软件只不过是在物理机OS上运行的一个软件而已,此软件运行后会模拟一台真实计算机的环境,只不过是模拟罢了,模拟出来的东西要和物理机上的内核打交道是要经过很多道关卡的,在通过一层一层二进制转换后才能把I/O操作传送到内核中,从而我们会感觉到它们性能是不怎么强的,而服务器在性能上的要求是非常高.

简单介绍一下,在目前的服务器虚拟化方面使用较多的有Xen,hyper-v,VMware esX server等,hyper-v集成在windows server 2k8 64位版中,必须购买windows 2k8以后才可以使用.VMware esX server是一款相当成熟的虚拟机管理器,也是需要购买后才可使用,而Xen则是开源软件,可以直接下载后在linux上编译即可使用,并且最新的Xen3已经支持硬件虚拟化,可以在不修改内核源码的情况下虚拟OS,当然还有其他更多的可以在google上找

到.关于Xen的原理可以在https://www.360docs.net/doc/3c102648.html,/ 学习到,在这里提一下什么是hypervisor,简单的说hypervisor其实就是由一些微代码构成,其最先被载入内存,用来隔离每一个OS.在https://www.360docs.net/doc/3c102648.html,/ 有官方的ppt,可以更加详细的了解Xen的原理.

经常看到一些喜爱Linux的用户和喜爱使用Windows的用户针锋相对,甚至破口大骂的时候我非常不理解,我对Linux和windows都非常喜爱,在搭建服务器的时候总是喜欢把两者结合起来使用,评价谁好谁坏毫无意义,应该尽量结合两者的优势来管理好服务器才是正道.平时用Linux的时候很多,我比较爱用centos和suse,这里就拿Centos5来说说Xen在网络上的配置,让我们把Xen更好的应用于生产环境中.

首先在centos上安装xen内核,这个很简单,在centos中有rpm包,直接使用dvd挂载上去后安装即可,具体安装哪些包在这里就不多废话了,网络上有很多教程,在这个地方浪费篇幅就跑题了,现在假设已经安装好了Xen内核,并且在Xen内核中已经安装成功一台guestOS,(半虚拟化环境)那么在多网卡的环境下如何去配置?这里只是讲解多网卡桥接环境.

先来分析几个脚本,更加深刻的理解xen的网络配置情况.

如果你是用rpm包安装的话,那么可以看到如下的结构..

引用

[root@target xen]# auto xend-config.sxp xmexample2

qemu-ifup xend-pci permissive.sxp xmexample.hvm

scripts xend-pci-quirks.sxp xmexample.vti

test1 xmexample1

blktap vif-common.sh

block vif-nat

block-common.sh vif-route

block-enbd vtpm

block-nbd vtpm-common.sh

external-device-migrate vtpm-delete

locking.sh vtpm-hotplug-common.sh

logging.sh vtpm-impl

network-bridge vtpm-migration.sh

network-custom xen-hotplug-cleanup

network-nat xen-hotplug-common.sh

network-route xen-network-common.sh

vif-bridge xen-script-common.sh

其中用显示为红色的几个文件和xen的网络配置关系密切.那么xend进程启动以后是如何调用这几个文件的?这几个文件又做了些什么动作?

在官方说明中有这样一段话:

When xend starts up, it runs the network-bridge script, which:

1。creates a new bridge named xenbr0 (建立一个网桥名称为xenbr0)

2。real ethernet interface eth0 is brought down (关闭真实的以太网接口eth0) 3。the IP and MAC addresses of eth0 are copied to virtual network interface veth0 (将eth0的IP和MAC地址拷贝给虚拟以太网接口veth0)

4。real interface eth0 is renamed peth0 (将真实的接口eth0重命名为peth0)

5。virtual interface veth0 is renamed eth0 (将虚拟以太网接口veth0重命名为eth0) 6。peth0 and vif0.0 are attached to bridge xenbr0. Please notice that in xen 3.3, the default bridge name is the same than the interface it is attached to. Eg: bridge name eth0, eth1 or ethX.VlanID (将peth0和vif0.0连接到网桥xenbr0)

7。the bridge, peth0, eth0 and vif0.0 are brought up (激活peth0 eth0 vif0.0) xenbr0是什么?

我们知道,在xen环境里domU要和网络中的计算机通信是要通过xen总线来调用后端驱动来实现的.在xend脚本启动时,我们用ifconfig命令会发现多了一个xenbr0,xenbr0是一个网桥,众所周知,网桥是工作在链路层,在网桥中的设备都在一个广播域中,使用以下命令可以查看xenbr0的信息。

引用

[root@target ~]# brctl show | grep xenbr0 ; ip link show | grep xenbr0

xenbr0 8000.feffffffffff no peth0

vif0.0

xenbr0: BROADCAST,NOARP,UP,LOWER_UP mtu 1500 qdisc noqueue

可以看出在网桥已经桥接了两块网卡,并且关闭了arp,在xend进程未启动之前,我们是看不到vethX接口的,因为此时netbk和netloop没有被载入,当进程启动后会通过xend脚本载入,此时虚拟接口以及被创建,但是down掉的,然后通过上面几个步骤后veth0会重命名为eth0,并且peth0,eth0以及vif0.0会被激活,此过程是通过network-bridge 脚本实现的,为什么看不到veth0,因为此时已经被重命名为eth0.打开脚本会看到。

先看看创建网桥的代码,在network-bridge第198行定义了一个op_start函数

引用

198 op_start () {

199 if [ "${bridge}" = "null" ] ; then

200 return

201 fi

202

203 if is_network_root ; then

204 [ -x /usr/bin/logger ] && /usr/bin/logger "network-bridge: bridging not supported on network

root; not starting"

205 return

206 fi

207

208 if ! link_exists "$vdev"; then

209 if link_exists "$pdev"; then

210 # The device is already up.

211 return

212 else

213 echo "

214 Link $vdev is missing.

215 This may be because you have reached the limit of the number of interfaces 216 that the loopback driver supports. If the loopback driver is a module, you

217 may raise this limit by passing it as a parameter (nloopbacks=); if the 218 driver is compiled statically into the kernel, then you may set the parameter

219 using loopback.nloopbacks= on the domain 0 kernel command line.

220 " >&2

221 exit 1

222 fi

223 fi

224

225 create_bridge ${bridge}

这一段前面是一些判断语句,比如bridge变量没设置或者vdev不存在的时候将给出提示信息并且退出,而最后create_bridge ${bridge}则是调用了create_bridge函数来创建一个网桥,create_bridge函数在xen-network-common.sh中有如下定义:

使用brctl命令创建网桥,关闭了生成树协议,转发延迟设置为0,并且关闭了arp和multicast

引用

109 create_bridge () {

110 local bridge=$1

111

112 # Don't create the bridge if it already exists.

113 if [ ! -e "/sys/class/net/${bridge}/bridge" ]; then

114 brctl addbr ${bridge}

115 brctl stp ${bridge} off

116 brctl setfd ${bridge} 0

117 sysctl -w "net.bridge.bridge-nf-call-arptables=0"

118 sysctl -w "net.bridge.bridge-nf-call-ip6tables=0"

119 sysctl -w "net.bridge.bridge-nf-call-iptables=0"

120 ip link set ${bridge} arp off

121 ip link set ${bridge} multicast off

122 fi

123

124 # A small MTU disables IPv6 (and therefore IPv6 addrconf).

125 mtu=$(ip link show ${bridge} | sed -n 's/.* mtu \([0-9]\+\).*/\1/p') 126 ip link set ${bridge} mtu 68

127 ip link set ${bridge} up

128 ip link set ${bridge} mtu ${mtu:-1500}

129 }

替换ip和mac,并且重命名网卡等后续工作

引用

if link_exists "$vdev"; then

mac=`ip link show ${netdev} | grep 'link\/ether' | sed -e 's/.*ether \(..:..:..:..:..:..\).*/\1/'`

preiftransfer ${netdev}

transfer_addrs ${netdev} ${vdev}

if is_bonding ${netdev} || ! ifdown ${netdev}; then

# Remember the IP details if necessary.

get_ip_info ${netdev}

ip link set ${netdev} down

ip addr flush ${netdev}

fi

ip link set ${netdev} name ${pdev}

ip link set ${vdev} name ${netdev}

setup_bridge_port ${pdev}

setup_bridge_port ${vif0}

ip link set ${netdev} addr ${mac} arp on

ip link set ${bridge} up

add_to_bridge ${bridge} ${vif0}

add_to_bridge2 ${bridge} ${pdev}

do_ifup ${netdev}

else

# old style without ${vdev}

transfer_addrs ${netdev} ${bridge}

transfer_routes ${netdev} ${bridge}

fi

if [ ${antispoof} = 'yes' ] ; then

antispoofing

fi

}

明白了这些就好办了,这些动作都可以手工完成。

先看看默认情况下,xend启动时网络情况是怎样的。默认启动时会根据network-bridge 中的几个变量自动添加网桥并把网卡加入网桥中。在这里我HostOS中有两块物理网卡,此时服务启动后会自动建立xenbr0,并且把peth0 vif0.0加入。如果设置了默认路由,那么网卡号就是默认路由出口网卡号,如果没有设置默认路由,并且没有手动给vifnum赋值的话,默认为0,此时netdev为eth0,网桥名称为xenbr0,并且不使用iptable防止欺骗。

引用

vifnum=${vifnum:-$(ip route list | awk '/^default / { print $NF }' | sed

's/^[^0-9]*//')} (使用正规表达式找出默认网关出口网卡)

vifnum=${vifnum:-0})(如果vifnum变量没设置,则设置为0)

bridge=${bridge:-xenbr${vifnum}}(如果网桥名未设置则设置为xenbr${vifnum})netdev=${netdev:-eth${vifnum}} (虚拟以太网接口,如果没设置则为eth${vifnum}) antispoof=${antispoof:-no}(默认不启用)

下列几项不要更改,看了前面的原理应该不难理解!

pdev="p${netdev}"

vdev="veth${vifnum}"

vif0="vif0.${vifnum}"

假如默认值不符合我们要求,我们可以手动添加。假设想建立一个名为test的网桥,桥接pth1和vif0.1(模块加载时自动生成的,直接和veth1相连,vif0.2则连接veth2,官网有图解)

引用

[root@target scripts]# pwd ; brctl show

/etc/xen/scripts

bridge name bridge id STP enabled interfaces

[root@target scripts]# ./network-bridge bridge=test vifnum=1 start > /dev/null 2>&1 ; brctl show

bridge name bridge id STP enabled interfaces

test 8000.feffffffffff no peth1

vif0.1

删除

引用

./network-bridge bridge=test vifnum=1 start > /dev/null 2>&1 ; brctl show bridge name bridge id STP enabled interfaces

设置domU配置文件,修改xen目录下与domU同名文件。红色标记的地方即为配置网卡的地方,mac地址如果为空则会在启动时自动分配,可以手动指定,建议制定为Xen保留地址00:16:3e:xx:xx:xx,bridge是要桥接到的网桥,要和已经存在的网桥名称一致,在这里为test。

引用

name = "test"

uuid = "14d7fb2c-3ef7-ce3e-7e73-bd6e4e082887"

maxmem = 256

memory = 128

vcpus = 1

bootloader = "/usr/bin/pygrub"

on_poweroff = "destroy"

on_reboot = "restart"

on_crash = "restart"

vfb = [ ]

disk = [ "tap:aio:/vmdisk/centos.img,xvda,w" ]

vif = [ "mac=00:16:3e:10:e4:53,bridge=test" ]

使用xm create test命令启动后,会自动调用vif-bridge脚本,此时使用brctl show 可以看到vif3.0(前面的3是domU的id号,0代表第一块网卡)已经桥接到test.此时在domU上设置好ip地址(或者从dhcp获取)后就可以和主机eth1相同网段的主机通信了。此时vif3.0对应在domU中的eth0,vif3.0的arp是关闭的,它不需要响应arp,只是将数据包发送到domU中.

引用

[root@target xen]# brctl show

bridge name bridge id STP enabled interfaces

test 8000.feffffffffff no vif3.0

peth1

vif0.1

更简单的是按照官方推荐做法,直接使用略加修改缺省脚本,使xend启动时自动执行。#!/bin/sh

dir=$(dirname "$0")

"$dir/network-bridge" "$@" vifnum=0

"$dir/network-bridge" "$@" vifnum=1

保持为一个可执行文件,然后通过/etc/xen/xend-config.sxp调用即可,脚本非常简单,定义了不同的两个变量,执行了两遍罢了。

补充一点,在centos5中,启动后有一个默认网桥virbr0被创建,这个网桥是通过脚本/etc/init.d/libvirtd创建的,用于在没有dhcp环境下为虚拟网络分配ip地址,配置文件在/usr/share/libvirt/networks/default.xml中,下面做一个小实验。

引用

[root@target ~]# ls /etc/init.d/libvirtd ; cat

/usr/share/libvirt/networks/default.xml

/etc/init.d/libvirtd

default

(默认网桥名称)

(网桥ip)

(ip地址范围)

启动libvirtd服务,从test中删除vif3.0,把vif3.0添加到virbr0中,使用dhclient 获取地址。。。

引用

[root@target ~]# /etc/init.d/libvirtd start && brctl show

Starting libvirtd daemon: [确定]

bridge name bridge id STP enabled interfaces

test 8000.feffffffffff no vif3.0

peth1

vif0.1

virbr0 8000.000000000000 no

[root@target ~]# brctl delif test vif3.0 && brctl addif virbr0 vif3.0 && brctl show

bridge name bridge id STP enabled interfaces

test 8000.feffffffffff no peth1

vif0.1

virbr0 8000.feffffffffff yes vif3.0

切换到test控制台,获取地址。

引用

[root@target ~]# xm console test

[root@test ~]# dhclient

Internet Systems Consortium DHCP Client V3.0.5-RedHat

Copyright 2004-2006 Internet Systems Consortium.

All rights reserved.

For info, please visit https://www.360docs.net/doc/3c102648.html,/sw/dhcp/

Listening on LPF/eth0/00:16:3e:10:e4:53

Sending on LPF/eth0/00:16:3e:10:e4:53

Sending on Socket/fallback

DHCPDISCOVER on eth0 to 255.255.255.255 port 67 interval 4 DHCPOFFER from 192.168.122.1

DHCPREQUEST on eth0 to 255.255.255.255 port 67

DHCPACK from 192.168.122.1

bound to 192.168.122.32 -- renewal in 1772 seconds.

Xen与虚拟化技术

目录 2010-6-21 1.虚拟化发展历史 (2) 1.1硬件虚拟化 (2) 1.2处理器虚拟化 (2) 1.3指令集虚拟化 (2) 2.虚拟化技术的类型 (3) 2.1硬件仿真 (3) 2.2完全虚拟化 (3) 2.3超虚拟化 (3) 2.4操作系统级的虚拟化 (4) 2.5内核虚拟机(Linux KVM) (4) 3.与Linux相关的虚拟化项目 (5) 4.Xen (6) 4.1Xen的体系架构 (6) 4.2Xen Hypervisor,操作系统,应用程序 (8) 4.3Xen的半虚拟化和全虚拟化 (9) 4.4Xen的网络架构 (11) 4.4.1Xen支持三种网络工作模式 (11) 4.4.2Xen Domain U Guests发送数据包处理流程 (12) 4.4.3xen中虚拟网卡与物理网卡之间的关系 (12) 5.Xen的配置和管理 (13) 5.1Xen相关配置文件 (13) 5.2/etc/xen/下的配置文件 (14)

1.虚拟化发展历史 1.1硬件虚拟化 IBM早在20世纪60年代开发System/360?Model67大型机时就开始使用该技术。Model67通过VMM(Virtual Machine Monitor)对所有的硬件接口都进行了虚拟化。在早期计算机中,操作系统被称为supervisor。能够在其他操作系统上运行的操作系统被称为hypervisor(这个术语是在20世纪70年代出现的)。 VMM可以直接在底层硬件上运行,允许运行多个虚拟机(VM)。每个VM都可以运行一个自己私有操作系统的实例——称为CMS(Conversational Monitor System) 1.2处理器虚拟化 虚拟化早期的另外一种用法是P-code(或伪码)机。P-code是一种机器语言,运行于虚拟机而不是实际硬件。它将Pascal程序编译成P-code,然后在一个P-code虚拟机上运行。这就使P-code程序具有了高度的可移植性,而且,只要有可用的P-code虚拟机,P-code 程序就可以运行。Java语言的虚拟机沿用了这种P-code模型。 1.3指令集虚拟化 虚拟化最新的发展称为指令集虚拟化,或者二进制转换。在这种模型中,虚拟指令集被转换成底层硬件的物理指令集,这个过程通常都是动态的。当代码执行时,就会对代码的某个段进行转换。如果出现分支情况,就会导入新代码集并进行转换。这使它与缓存操作非常类似,后者是将指令块从内存移动到本地快速缓存中执行。

VMware网络虚拟化产品NSX安装配置指南

NSX for vSphere Getting Started Guide VMware NSX for vSphere, release 6.0.x July 21, 2014 Table of Contents NSX for vSphere Getting Started Guide (1) Introduction (3) Installation of NSX for vSphere (4) Infrastructure requirements for NSX-v (4) NSX-v Installation overview (6) Step 1: Install NSX Manager (6) Step 2: Install the NSX Controller Cluster (8) Step 3: Prepare ESXi hosts for NSX (10) L2 Logical Switching (14) Goal of the L2 logical switching lab (14) Create four Logical Switches (14) Add VMs on Web/App/DB Logical Switches (15) Validate that VMs on the same Logical Switch can communicate (16) Distributed Logical Routing (18) Goal of the logical routing lab (18) Create a single Distributed Logical Router (18) Validate that VMs in the different Logical Switches can communicate (21) Distributed Firewalling (23) Goal of the Distributed Firewalling lab (23) Create the Distributed Firewall rules (23) Validate the Distributed Firewall rules (25) Logical Centralized Routing (26)

Windows 7中虚拟机VMware无线网络设置

默认情况下,VMware Workstation的虚拟网卡使用 192.168.1.0 ---- 192.168.254.0 范围中的(子网掩码为 255.255.255.0)两个网段(对应于第一块网卡 VMnet1 和第二块网卡 VMnet8)。由于每块网卡使用的网段是随机的,不固定。在用VMware做网络实验时,很不方便,一般把VMware使用的网段固定在一定范围。 机器配置:Windows7 中文家庭版,64位系统,Dell笔记本,虚拟机Windows server 2003 中文版SP2 网络适配器如下 Dell Wireless 1397 WLAN Mini-Card Microsoft Virtual WiFi Miniport Adapter Realtek PCIe FE Family controller 成功联网的前提: 首先,设备管理器里面要有VMware Virtual Ethernet Adapter for VMnet1和VMware Virtual Ethernet Adapter for VMnet8(其实只需要8,不需要1也行)。且显示无问题。 其次,控制面板\网络和 Internet\网络连接里面,你的网卡属性里面,VMware Bridge Protocol协议需要打钩(注意是你的物理网卡,而不是虚拟网卡的属性,虚拟网卡可以不打勾)如图3 另外,系统服务中没有更改默认VMware所续启动的三个必要服务。 如果上述必要设置有问题,只要重新运行一下安装程序,选择修复安装,一般问题都会解决。 设置虚拟机联网的详细步骤:(以下设置最好是都用管理员身份运行) 1、打开开始菜单,所有程序,VMware,Virtual Network Editor 2、打开NAT标签页,把VMnet Host的下拉菜单设置成VMnet8,记下下面的Gateway IP Address,比如说我的就是192.168.32.2 3、打开DHCP标签页,选择下面列表中的VMnet8,并点击列表右下角的Properties按钮,记下Start IP Address和End IP Address,比如说我的就是192.168.32.128和192.168.32.254 4、关闭VMware,Virtual Network Editor,运行VMware Workstation,更改虚拟机的硬件,设置网卡的运行方式为第二种(NAT:Used to share the host's IP address 5、启动虚拟机,比如说我的是Windows server 2003 中文版,并打开控制面板\网络和Internet连接\网络连接 6、更改本地连接属性里面的TCP/IP属性,选择使用下面的IP地址,其中,IP地址填刚才DHCP页面里面记下的两个IP地址中的随便一个IP,也就是说从192.168.40.128到192.168.32.254,随便选一个,我选的是192.168.32.202。子网掩码是自动填的255.255.255.0,默认网关和下面的DNS是填刚才NAT 页面记下的IP,比如我的是192.168.32.2。 7、打开浏览器,输入 https://www.360docs.net/doc/3c102648.html,/ ,能上网了。 而我的情况还比较特殊,有两台虚拟机,并且无限上网使用了代理 https://www.360docs.net/doc/3c102648.html, 一台:192.168.32.202 数据库服务器 一台:192.168.32.203 应用程序和前端服务器 203与202不同的地方时 203 的多配置一个DNS,ip位202的 这样以后,

虚拟机Xen网络配置及原理

虚拟机Xen网络配置 虚拟化是目前一门炙手可热的技术,它给我们带来的好处在各个层次都有体现,作为一个网络管理者来说,搭建和维护服务器更是我们职责所在!目前的服务器配置可以说是相当高了,单核cpu的时代也已经渐渐离我们远去,在我们使用多核cpu以及大内存服务器的的同时,我们是否想过这些服务器的性能是否完全都使用上了?举个例子来说,假设公司有一台IBM System x3650,它配备Xeon 5450cpu(四核心),二级缓存高达12M,最大支持48gb内存,在这样一台如此强劲的服务器上如果只跑一两个应用的话是否浪费了很多的性能呢? 当然,你完全可以把企业中很多的应用都跑在这一台服务器上,这样做虽然是可以的,但是大家都知道,在单个OS上跑的应用越多,出问题的系数也就越高,往往会因为其中某一个应用的问题而导致整个OS崩溃,再或者某个应用支持的系统平台不同,我们需要多个OS来支持,如此以来是否又要购买服务器来达到我们的需求?如果在虚拟化技术没出现之前,我们只能购买更多的服务器来支持更多的应用,无论在维护还是资金上都是一笔不小的投入,不过此刻的我们非常幸运,在这个虚拟化技术流行的时代,那些曾经不可能实现的问题已经不再是问题了,在此我也非常感谢那些在虚拟化技术上投入心血的人们.我们现在完全可以实现在一台物理机上同时跑多个OS! 很多管理员都用过VMware Workstation或者vpc,我们把它们称作虚拟机软件,我们可以在其上安装和物理机不同的OS,在我们需要测试某些程序或者搭建一些环境的时候经常使用到他们,在虚拟机上跑的OS即便是崩溃了也不会影响我们物理机上的任何应用,那我们是否把他们应用在服务器虚拟化层面呢?在这里我不建议这么去做,因为以上提到的两款虚拟机软件只不过是在物理机OS上运行的一个软件而已,此软件运行后会模拟一台真实计算机的环境,只不过是模拟罢了,模拟出来的东西要和物理机上的内核打交道是要经过很多道关卡的,在通过一层一层二进制转换后才能把I/O操作传送到内核中,从而我们会感觉到它们性能是不怎么强的,而服务器在性能上的要求是非常高. 简单介绍一下,在目前的服务器虚拟化方面使用较多的有Xen,hyper-v,VMware esX server等,hyper-v集成在windows server 2k8 64位版中,必须购买windows 2k8以后才可以使用.VMware esX server是一款相当成熟的虚拟机管理器,也是需要购买后才可使用,而Xen则是开源软件,可以直接下载后在linux上编译即可使用,并且最新的Xen3已经支持硬件虚拟化,可以在不修改内核源码的情况下虚拟OS,当然还有其他更多的可以在google上找

Xen虚拟化技术

7.5.2 Xen虚拟化技术 本节中将以主流的Xen体系架构为例,说明虚拟化系统的一般技术架构和工作原理。 1.Xen体系结构(Xen Hypervisor) Xen Hypervisor(即Xen的VMM)位于操作系统和硬件之间,负责为上层运行的操作系统内核提供虚拟化的硬件资源,负责管理和分配这些资源,并确保上层虚拟机(称为域)之间的相互隔离。Xen采用混合模式,因而设定了一个特权域用以辅助Xen管理其他的域,并提供虚拟的资源服务,该特权域称为 Domain 0,而其余的域则称为Domain U。 Xen的体系架构如图7-25所示。Xen向Domain提供了一个抽象层,其中包含了管理和虚拟硬件的API。Dom0内部包含了真实的设备驱动(原生设备驱动),可直接访问物理硬件,负责与Xen提供的管理API交互,并通过用户模式下的管理工具来管理Xen的虚拟机环境。

Xen向Domain提供了VCPU、虚拟MMU(Memory Management Unit)等基本的 虚拟硬件和基本机制(事件通道),并向Domain提供了虚拟域管理API(控制接口)。对Domain设备的访问,Xen也提供了相应的硬件接口(安全硬件接口), 以保证设备访问得以安全进行。 在Xen体系架构中涉及到的基本概念包括: 控制接口:仅能被Dom0使用,用于帮助Dom0控制和管理其他的Domain。控制 接口提供的具体功能包括Domain的创建、销毁、暂停、恢复及迁移,对其他Domain的CPU调度、内存分配及设备访问等。 安全硬件接口:提供除虚拟CPU、MMU之外的所有硬件虚拟工作,包括DMA/IO、驱动程序、虚拟的PCI地址配置、虚拟硬件中断等。该接口只能被具有原生设备 驱动的Domain使用,而向其他Domain则仅通过设备通道提供虚拟硬件服务。 VCPU:Xen为每个Domain建立了VCPU结构,用以接收Guest OS中传递的指令,其中大部分的指令被VCPU直接提交到物理CPU执行,而对于特权指令则需要经 过确认后交由Xen代为执行。 虚拟MMU:用于帮助Guest OS完成虚拟地址到机器地址的转换。Xen系统中增加了客户物理地址层,因而地址由原来的二层结构变为三层结构。Xen通过虚拟 MMU仍能使用硬件MMU来完成地址转换。 事件通道:是用于Domain和Xen之间、Domain相互之间的一种异步事件通知机制,用于处理Guest OS中的虚拟中断、物理中断以及Domain之间的通信。 设备管理器:位于Dom0和IDD(Independent Device Domain)中,可作为系统BIOS的扩展,用于向所有的设备提供通用的管理接口,并负责在Domain启动时 加载特定的设备驱动、建立管理设备通道、提供硬件设备配置接口并处理设备访问错误。 2.CPU虚拟化 (1)半虚拟化 对CPU指令集不提供硬件支持的情况,Xen只能采取半虚拟化的方案,通过修改Guest OS的内核对有缺陷的指令进行替换。在这种模式下,Xen位于操作系统和硬件之间,为其上运行的Guest OS内核提供虚拟化的硬件环境,因而Xen具有最高

VMware虚拟机网络连接的三种方式

VMware是很受欢迎的虚拟机,在我们平时的工作中需要经常用到,此文简单总结了平时使用的三种网络配置方式,具体的原理没有去深究。 虚拟机系统安装的是Linux系统。 首先,我们在本机上查看所有网络配置连接,使用命令:ipconfig Java代码

isconnected 33. 34.Ethernet adapter VirtualBox Host-Only Network: 35. 36. Connection-specific DNS Suffix . : 37. IP Address. . . . . . . . . . . . : 192.168. 154.1 38. Subnet Mask . . . . . . . . . . . : 255.255. 255.0 39. Default Gateway . . . . . . . . . : 40. 41.C:\Documents and Settings\user> Microsoft Windows XP [版本5.1.2600] (C) 版权所有1985-2001 Microsoft Corp. C:\Documents and Settings\user>ipconfig Windows IP Configuration Ethernet adapter VMware Network Adapter VMnet8: Connection-specific DNS Suffix . : IP Address. . . . . . . . . . . . : 192.168.74.1 Subnet Mask . . . . . . . . . . . : 255.255.255.0 Default Gateway . . . . . . . . . : Ethernet adapter VMware Network Adapter VMnet1: Connection-specific DNS Suffix . : IP Address. . . . . . . . . . . . : 192.168.2.1 Subnet Mask . . . . . . . . . . . : 255.255.255.0 Default Gateway . . . . . . . . . : Ethernet adapter 无线网络连接:

Win7系统VMware虚拟机无线上网设置教程

Win7系统VMware虚拟机无线上网设置教程 作者:佚名来源:本站整理发布时间:2011-04-12 13:54:31 文章内容相关Tags:虚拟机上网设置 机器配置:Windows7 中文家庭版,64位系统,Dell笔记本,虚拟机Windows server 2003 中文版 SP2 网络适配器如下 Dell Wireless 1397 WLAN Mini-Card Microsoft Virtual WiFi Miniport Adapter Realtek PCIe FE Family controller 成功联网的前提: 首先,设备管理器里面要有VMware Virtual Ethernet Adapter for VMnet1和VMware Virtual Ethernet Adapter for VMnet8(其实只需要8,不需要1也行)。且显示无问题。 其次,控制面板\网络和 Internet\网络连接里面,你的网卡属性里面,VMware Bridge Protocol协议需要打钩(注意是你的物理网卡,而不是虚拟网卡的属性,虚拟网卡可以不打勾) 另外,系统服务中没有更改默认VMware所续启动的三个必要服务。 如果上述必要设置有问题,只要重新运行一下安装程序,选择修复安装,一般问题都会解决。 设置虚拟机联网的详细步骤:(以下设置最好是都用管理员身份运行) 1、打开开始菜单,所有程序,VMware,Virtual Network Editor 2、打开NAT标签页,把VMnet Host的下拉菜单设置成VMnet8,记下下面的Gateway IP Address,比如说我的就是192.168.32.2 3、打开DHCP标签页,选择下面列表中的VMnet8,并点击列表右下角的Properties按钮,记下Start IP Address和End IP Address,比如说我的就是192.168.32.128和192.168.32.254

Linux虚拟机NAT网络连接设置

2010-04-17 Linux虚拟机NAT网络连接设置 文章分类:操作系统 1.打开VMware,Fedora 4关机状态,在Devices区域中鼠标双击Ethernet,选择"NAT"。 2.2.在VMware中,Edit-〉Virtual Network Settings,看到如下两张图的设置,说明VMnet8启用。VMnet8的启用说明VMware软件虚拟了一台网络交换机,带有DHCP功能,本身起到NAT服务器的作用。 请注意第二张图VMnet8的Gateway IP Address。

3.打开Fedora 4虚拟机,以root账号登入系统,如果是图形界面的话,请按"Ctrl+Alt+F1"切换到终端命令行模式。

4.设置主机名称与默认网关(通过vi编辑器打开/etc/sysconfig/network文件)[root@hostname root]# vi /etc/sysconfig/network 按照下图设置,注意HOSTNAME这里设置成https://www.360docs.net/doc/3c102648.html,,配置完成后,重启机器后hostname会变成daquan。 5.设置网卡参数(通过vi编辑器打开 /etc/sysconfig/network-scripts/ifcfg-eth0文件) [root@hostname root]# vi /etc/sysconfig/network-scripts/ifcfg-eth0 按照下图设置即可

6.设置DNS主机的IP(通过vi编辑器打开/etc/resolv.conf文件) [root@hostname root]# vi /etc/resolv.conf 下图无需设置,大家看一下即可,如果不是如下,重新启动机器应该就会自动设置,因为已经设置为DHCP,nameserver会自动设置成 VMnet8的Gateway IP Address,nameserver就起到Windows下的DNS Server作用,这种设置类似于Windows域环境下的DNS转发器,说明这个地址会自动转发DNS查询到主机的DNS。 7.重新启动网络设置 因为更改了/etc/sysconfig/network这个文件,按照如下三个命令重新启动,不行就reboot虚拟机。 参看下图

VM虚拟机的网络连接方式详细说明

VM虚拟机的网络连接方式详细说明 VMWare提供了三种工作模式,它们是bridged(桥接模式)、NAT(网络地址转换模式)和host-only(主机模式)。要想在网络管理和维护中合理应用它们,就应该先了解一下这三种工作模式。 1.bridged(桥接模式) 在这种模式下,VMWare虚拟出来的操作系统就像是局域网中的一台独立的主机,它可以访问网内任何一台机器。在桥接模式下,你需要手工为虚拟系统配置IP 地址、子网掩码,而且还要和宿主机器处于同一网段,这样虚拟系统才能和宿主机器进行通信。同时,由于这个虚拟系统是局域网中的一个独立的主机系统,那么就可以手工配置它的TCP/IP配置信息,以实现通过局域网的网关或路由器访问互联网。使用桥接模式的虚拟系统和宿主机器的关系,就像连接在同一个Hub 上的两台电脑。想让它们相互通讯,你就需要为虚拟系统配置IP地址和子网掩码,否则就无法通信。如果你想利用VMWare在局域网内新建一个虚拟服务器,为局域网用户提供网络服务,就应该选择桥接模式。 2.host-only(主机模式) 在某些特殊的网络调试环境中,要求将真实环境和虚拟环境隔离开,这时你就可采用host-only模式。在host-only模式中,所有的虚拟系统是可以相互通信的,但虚拟系统和真实的网络是被隔离开的。提示:在host-only模式下,虚拟系统和宿主机器系统是可以相互通信的,相当于这两台机器通过双绞线互连。在host-only模式下,虚拟系统的TCP/IP配置信息(如IP地址、网关地址、DNS 服务器等),都是由VMnet1(host-only)虚拟网络的DHCP服务器来动态分配的。如果你想利用VMWare创建一个与网内其他机器相隔离的虚拟系统,进行某些特殊的网络调试工作,可以选择host-only模式。 ⒈在虚拟机上安装操作系统的时候,系统的IP设置为192.168.0.99,DNS:192.168.0.1

Xen-VMware-ESXi-Hyper-V和KVM等虚拟化技术的原理解析

Xen,VMware ESXi,Hyper-V和KVM等虚拟化技术的原理解 析 XEN 与 VMware ESXi,Hyper-V 以及 KVM 特点比较: XEN 有简化虚拟模式,不需要设备驱动,能够保证每个虚拟用户系统相互独立,依赖于 service domains 来完成一些功能; Vmware ESXI 与 XEN 比较类似,包含设备驱动以及管理栈等基本要素,硬件支持依赖于 VMware 创建的驱动; Hyper-V 是基于 XEN 管理栈的修改; KVM 与XEN 方式不同,KVM 是以Linux 内核作为管理工具得。 虚拟机的体系结构 XEN 体系结构 图 3. XEN 体系结构图 一个XEN 虚拟机环境主要由以下几部分组成: XEN Hypervisor; Domain 0 —— Domain Management and Control(XEN DM&C); Domain U Guest(Dom U) 下图4 显示除了各部分之间的关系: 图 4. Xen 三部分组成之间关系图

XEN Hypervisor : XEN Hypervisor 是介于操作系统和硬件之间的一个软件描述层。它负责在各个虚拟机之间进行CPU 调度和内存分配。XEN Hypervisor 不仅抽象出虚拟机的硬件,同时还控制着各个虚拟机的执行。XEN Hypervisor 不会处理网络、存储设备、视频以及其他I/O. Domain 0: Domain 0 是一个修改过的Linux kernel,是唯一运行在Xen Hypervisor 之上的虚拟机,它拥有访问物理I/O 资源的权限,同时和系统上运行的其他虚拟机进行交互。Domain 0 需要在其它Domain 启动之前启动。 Domain U: 运行在Xen Hypervisor 上的所有半虚拟化(paravirtualized)虚拟机被称为“Domain U PV Guests”,其上运行着被修改过内核的操作系统,如Linux、Solaris、FreeBSD 等其它UNIX 操作系统。所有的全虚拟化虚拟机被称为“Domain U HVM Guests”,其上运行着不用修改内核的操作系统,如Windows 等。 2.Hyper-V 体系结构 图 5. Hyper-V 体系结构图 Hyper-V 是微软提出的一种系统管理程序虚拟化技术,采用微内核的架构,兼顾了安全性和性能的要求。Hyper-V 底层的Hypervisor 运行在最高的特权级别下,微软将其称为ring -1(而Intel 则将其称为root mode),而虚机的OS 内核和驱动运行在ring 0,应用程序运行在ring 3 下,这种架构就不需要采用复杂的BT(二进制特权指令翻译)技术,可以进一步提高安全性。从架构上讲Hyper-V 只有“硬件-Hyper-V-虚拟机”三层,本身非常小巧,代码简单,且不包含任何第三方驱动,所以安全可靠、执行效率高,能充分利用硬件资源,使虚拟机系统性能更接近真实系统性能。 Hyper-V 支持分区层面的隔离。分区是逻辑隔离单位,受虚拟机监控程序支持,并且操作系统在其中执行。Microsoft 虚拟机监控程序必须至少有一个父/ 根分区,用于运行64 位版本的Windows Server 2008 操作系统。虚拟化堆栈在父分区中运行,并且可以直接访问硬

VMware虚拟机安装、配置、搭建网络全程图解

VMware Workstation是VMware公司的专业虚拟机软件,可以虚拟现有任何操作系统,而且使用简单、容易上手。现如今有很多人都拥有电脑,但多数人都只有一两台,想组建一个自己的局域网或者是做个小规模的实验一台机器是不够的,最少也要个两三台,可为了这再买电脑就太不值了。好在有许多虚拟机可以帮我们解决这个问题。虚拟机可以在一台电脑上虚拟出很多的主机,只要真实主机的配置足够就可以。 下面将把VMware Workstation软件的完整使用过程分为:建立一个新的虚拟机、配置安装好的虚拟机、配置虚拟机的网络这三个部分,使用的是最新的VMware4。 一、安装建立一个新的虚拟机 首先让大家看看VMware的界面 2.我们来建立一个新的虚拟机向导 3.选择普通安装或者是自定义。这里大家选自定义,后面可以自行规划设备,内存和硬盘容量

4.选择想要虚拟的系统 5.给虚拟机起个名字,指定它的存放位置

6.分配内存大小 7.网络设置模式。这里比较复杂,安装的时候可以先随便选一个,装好后也可以改,但千万不要选最后一个,否则你将无法创建网络了。关于这三者之间的区别和怎样使用虚拟机连接到internet会在后面介绍。

8.创建一块磁盘。当第一次建立虚拟机时,请选择第一项,第二项适用于建立第二个或更多虚拟机,即使用已经建立好的虚拟机磁盘,这样可以减少虚拟机占用的真实磁盘空间。第三项则允许虚拟机直接读写磁盘空间,比较危险,所以适合熟悉使用磁盘的高级用户,如果操作失误会把真实磁盘里的内容删掉的。 9.设置虚拟机磁盘容量。第一项可以定义磁盘大小。第二项允许虚拟机无限使用磁盘空间,但需要真实磁盘足够大。第三项则限制了每块虚拟磁盘的最大容量为2G。

Xen KVM VMware对比

KVM、Xen、VMware的对比 首先:KVM、Xen是开源、免费的,而VMware的源代码不开放。详细的性能指标如下:Xen的6大优势: 1. 可用资源,Xen比KVM问世早四年(2003),市场占有率大,可用资源丰富 2. 平台支持:Xen在新版本中支持更多的主机和客体工作环境,包括泛虚拟化技术、硬 件辅助支持以及修改过或未修改过的客体操作系统;对UNIX、Linux和Windows的 特定支持;包括芯片组,如x86、IA64和AMD、Fujitsu、IBM、Sun等公司的ARM, 以及x86/64 CPU商家和Intel嵌入式的支持等。 3. 可管理性,Xen具有一个更加宽泛的第三方配给、备份、存储管理、P2V、容量规划、 性能监控、进程自动化、安全和其它管理规则社区,如IBM、Microsoft以及HP等。 4. 实施,Xen的运行和管理都是在较低级别的(Ring 0)。甚至对于新虚拟机创建,客体 机器并不需要像KVM那样共享内存块、CPU指令或者任何底层的Linux操作系统。 5. 动态迁移,Xen支持非中断的动态迁移,允许动态工作负载平衡和例行维护而没有任 何宕机时间,KVM的固有属性决定其必然有宕机时间。 6. 性能,大多数的KVM和Xen性能基准的对比都表明Xen具有更好的处理机性能,只 有在I/O方面逊于KVM。 Xen在虚拟网络支持、虚拟存储支持、安全增强、高可用性、容错处理、电源管理、HPC或者实时支持、虚拟CPU可扩展性、跨平台兼容性。虚拟机可移植性、虚拟应 用设备市场以及已经建立起来的云服务社区等诸多方面都要比KVM优越 KVM的优势: 1. Xen是Linux内核下的一个产品,而KVM是Linux内核的一部分,所以很容易控制虚 拟化进程,得到Linux厂商(红帽、Ubuntu)的大力支持。 2. Xen的泛虚拟化技术需要修改操作系统,默认的windows安装并不支持泛虚拟化。而 KVM是一个轻量级的虚拟化程序管理模块,补丁包能和Linux很好的兼容,不需要需改操作系统,就可以直接和硬件进行交互, 3. Xen缺少很好的整合,所以将会是Linux内核的负担越来越重。而KVM是Linux内核 的一部分,有Red Hat的技术支持和推广,有比Xen更加美好的发展前景。VMware&KVM的优势: 1. 目前企业内常见的虚拟换平台,国外的商业化成熟的软件,丰富的虚拟化产品和完整的解决方案,代码完全封闭。 2. VMware虚拟化平台的CPU性能高, 3. 网络性能指标VMware整体较好 4. 当内存数据块较小时,VMware性能较好,内存数据块较大时KVM较好;KVM在内 存写方面较好,VMware在内存读较好。 5. KVM的磁盘读相关操作表现较强,而VMware的磁盘写相关操作表现较强。

VMWare虚拟机上网设置保证你能连接网络

个人建议除了能用下述以不同方式实现 VMWare 上网外,最好能了解VMWare 的三个虚拟交换机的工作原理,即 NAT、桥接、Host-Only 三种方式下的 VMWare 的网络工作原理,网上有很多相关文章,这里不再详说。(Host-Only已测试完毕,稍后将补充完整) 一、外网篇 [ 1 ] NAT 首先确认主机已经连接网络可以正常上网,设置虚拟机网络连接方式为“NAT”,然后启动虚拟机,在虚拟系统里打开“网上邻居”的属性,双击“Internet 协议(TCP/IP)”,在弹出框中选择“自动获得 IP 地址”和“自动获得 DNS 服务器地址”,点“确定”,修复一下虚拟系统的“本地连接”就可以上网了。 [ 2 ] 桥接 在外网虚拟机使用桥接上网,只需启用主机的宽带连接共享功能即可,但是启用宽带连接共享的主机必须启用 DHCP Client 和 RPC 服务。 如果 DHCP Client 启动失败,可以打开“设备管理器”,点击“查看 - 显示隐藏的设备”,然后展开列表中的“非即插即用驱动

程序”,查看其下的 IPSEC driver 和 NetBIOS over TCP/IP 是否被停用,将其启用并重启即可。 1、断开宽带连接,禁用”本地连接“,打开“本地连接”的属性,双击“Internet协议(TCP/IP)”,修改IP 地址为192.168.0.1 ,子网掩码为 255.255.255.0 ,DNS 填写主机所在地的DNS 。 2、启用“本地连接”,在主机“网上邻居”的“属性”窗口中的右击宽带拨号连接的图标上,点“属性”,在弹出框点“高级”,将“Internet 连接共享”中的三个复选框选上。

Xen安装windows和linux虚拟机

Xen安装windows和linux虚拟机 实验环境: 物理机系统:CentOS 5.5 32位yum源:安装镜像 Xen 简介 Xen 是一个开放源代码的para-virtualizing虚拟机(VMM),或“管理程序”,是为x86架构的机器而设计的。Xen 可以在一套物理硬件上安全的执行多个虚拟机;Xen是基于内核的虚拟程序,它和操作平台结合的极为密切,所以它占用的资源最少。 一、安装Xen和支持Xen的内核 1、挂载本机镜像 mount -o loop /iso/CentOS-5.5-i386-bin-DVD.iso /media/cdrom/ 2、使用yum安装 yum --disablerepo=\* --enablerepo=c5-media install -y xen* 3、检查/boot/grub/grub.conf 文件,是否默认启动支持Xen内核 4、重启系统,启动后检查内核和xend运行是否正常 二、安装Linux虚拟机(半虚拟化) 虚拟系统磁盘使用的映像文件,安装源使用的是HTTP服务提供的本机挂载的系统盘。 1、创建映像文件 dd if=/dev/zero of=centos5.5.img bs=2k seek=2048k count=1 2、创建虚拟机 virt-install -n centos -r 256 -f /virtual/centos/centos5.5.img --nographics -p -l http://127.0.0.1/cdrom

运行命令后正常的如下图所示: 接下来就和普通安装一样了。 三、安装Windows 虚拟机(全虚拟化) PS:安装windows一般都使用全虚拟化,但要使用全虚拟化,CPU必须支持虚拟化技术,这个在BIOS中设置。 安装Windows使用VNC远程到服务器,使用Virtual Machine Manger (virt-manager包)进行安装。

VM虚拟机网络设置解释很好

VM虚拟机网络设置 VMWare中的几种网络设置 (1)Bridged方式 用这种方式,虚拟系统的IP可设置成和本机系统在同一网段,虚拟系统相当于网络内的一台独立的机器,和本机一起插在一个Hub上,网络内其他机器可访问虚拟系统,虚拟系统也可访问网络内其他机器,当然和本机系统的双向访问也不成问题。 (2)NAT方式 这种方式也能实现本机系统和虚拟系统的双向访问。但网络内其他机器不能访问虚拟系统,虚拟系统可通过本机系统用NAT协议访问网络内其他机器。 NAT方式的IP地址设置方法:虚拟系统先用DHCP自动获得IP地址,本机系统里的VMware services会为虚拟系统分配一个IP,之后如果想每次启动都用固定IP的话,在虚拟系统里直接设定这个IP即可。 (3)host-only方式 顾名思义这种方式只能进行虚拟机和主机之间的网络通信,既网络内其他机器不能访问虚拟系统,虚拟系统也不能访问其他机器。 (4)not use方式 既是不使用网络,虚拟系统为一个单机。 一般来说,Bridged方式最方便好用。但如果本机系统是win2000而网线没插(或根本没有网卡),网络非常可能不可用(大部分用PCI网卡的机器都如此),此时就只能用NAT方式或host-only,之前所说的那两块虚拟网卡就是适应这两种网络准备的。 vmware虚拟机的网络设置 虚拟机的网络设置(原理篇) 在正式开始之前,我想有必要先来学习一些必要的网络知识。否则,在不懂得所有原理的情况下依葫芦画瓢虽然可解一时之需要,但遇见具体情况改动的情况下就只能干瞪眼了。由于篇幅限制,这里只讲和VMware设置有关的一点简单网络知识。 1,什么是网络? Internet是指“互连网”,好象这句话说的有点多余,不过确实有非常多人对他有错误的理解,“互连网”是指一个个网络互连,而不是像有些人想象的那样把一台台计算机杂乱无章的互连。当我们需要用计算机和远方的计算机通讯的时候,先把本地计算机组成一个网络,当然,远方的计算机也要组成一个网络,在把这两个网络“互连”起来,组成“互连网”。用电话线和MODEM拨号上网的时候是通过电话线先把自己的计算机连到ISP(Internet Service Provider 网络服务提供商)的网络中,再经过ISP的网络和世界各地的计算机通信。 2,计算机怎么通过网络传递数据? 每一个网络需要一个网络地址,网络中的计算机需要一个在网络中唯一确定的标识,网络号和计算机的标识号组成了IP地址,所以IP地址是由网络号和主机号

xen虚拟机搭建

Domain0操作系统安装: E:\utorrent\CentOS-6.5-x86_64-bin-DVD1to2\CentOS-6.5-x86_64-bin-DVD1.iso 配置yum代理: /etc/yum.conf proxy=http://192.168.150.49:3128 /etc/profile export http_proxy=http://192.168.150.49:3128 安装必要软件: yum install transfig dracut wget texi2html libaio-devel dev86 glibc-devel e2fsprogs-devel gitk mkinitrd iasl xz-devel bzip2-devel pciutils-libs pciutils-devel SDL-devel libX11-devel gtk2-devel bridge-utils PyXML qemu-common qemu-img mercurial texinfo libuuid-devel openssl-devel python-twisted python python-devel ncurses-devel glibc-devel.i686 yajl yajl-devel.x86_64 bridge-utils 下载linux内核,xen源码 linux-3.13.6.tar.gz xen-4.4.0.tar.gz 编译linux内核3.13.6: yum install gcc ncurses-devel.x86_64 make menuconfig Processor type and features-> Linux guest support-> Device Drivers-> Block devices->

VMware虚拟机_如何设置网络

VMware虚拟机如何设置网络 软件社区> VMware > VMware 论坛>正文 本主题共有 1 页[刷新]本文构建的是这样一个网络,有两台winXP系统的PC,处于同一局域网内,PC里都装有VMw are虚拟机,虚拟机上跑的是Redhat Linux 9,我们想要在winXP系统下访问本机的虚拟机lin ux系统,以及也要能够访问另一台PC里的虚拟linux系统。由于我们这个局域网又不允许再分配同一网段的IP地址,因此不能用桥接方式给虚拟操作系统分配一个与PC处于同一网段的IP 地址,而本文即是采用NAT连接方式来实现这种配置。 相关文章: VMware辅助软件把当前系统直接转换为虚拟系统 VMware漏洞将会是虚拟化的危机吗 1,在WinXP系统下安装VMware软件 在这里我装的是VMware workstation 4.5.2版,对于安装没什么可说的,安装完毕,会多出两个网络连接:VMware Network Adapter VMnet1和VMware Network Adapter VMnet8。 2,打开VMware安装Redhat linux 9 3,都就绪完毕,开始网络配置

4,让VMware Network Adapter VMnet8自动获取IP地址以及DNS服务器地址,然后我们打开MS-DOC控制台,执行ipconfig /all命令,看看VMnet8的IP分配情况。 我的VMware Network Adapter VMnet8虚拟网卡的IP地址配置如下: 5,打开VMware软件,选择菜单VM->Settings,选中网卡查看其属性,将network connecti on设置为Custom:Special virtual network -- VMnet8(NAT)。OK返回软件主界面。启动Redh at Linux 9系统,这时我们要将虚拟系统的IP设置成与之同网段(我这里是192.168.65.0,你的可能不同,这是VMware自动随机指定的一个IP地址)。 如果在命令行下,可以编辑/etc/sysconfig/network-scripts/ifcfg-eth0文件,内容如下: DEVICE=eth0 BOOTPROTO=none BROADCAST=192.168.65.255

虚拟机设置中的各种网络连接方式详解

虚拟机设置中的各种网络连接方式详解 2013年10月06日??共2113字?字号??阅读4,777 views 次 虚拟机的作用是在现有操作系统下,允许安装更多的操作系统,相互之间物理隔离,组成网络,可以更大的发挥计算机的性能。 VirtualBox作为一款免费的虚拟机,非常好用。与之类似的,还有VMWare,这也是一款非常非常好用的虚拟机,操作也非常类似。我们依次为例,讲述VBox下的各种网络连接方式。 为什么要讲这个哪?因为在教学中,发现很多学员对网络知识比较缺乏,对各种网络连接方式哪,知之甚少。现在总结一下,希望来个根本解决。 首先,大家知道一下网络常识: ?网络中对电脑的访问是通过ip定位的。就好像我们的身份证号,可以唯一辨识一个人。ip是用来区分网络中的电脑的,因此同一网络(准确讲是“网段”)中,ip地址不能相同。如果同一网络中有相同的ip存在,经常发生无法联网或者经常掉线的情况。 ?网络是分段管理的。拿局域网为例,我们通常的网段是192.168.1.xxx。我们的ip地址就是把xxx成1到254的数字。如果多台计算机的ip的前面数字都是192.168.1,那么就叫做属于同一个网段,他们之间是可以互相通信的。如果一台机器的ip是192.168.1.100,另一台机器的ip是192.168.3.100,正常情况下,不能互相通信的(有办法可以搞定,我们不讨论)。所以,在设置虚拟机时要考虑是否同一个网段。 ?怎么知道电脑的ip地址?在windows系统下,在命令行中执行ipconfig;在linux系统下,在命令行中执行ifconfig即可,下文会详述。 ?怎么判断是否与对方能够通信?最简单的方式是执行ping命令。无论是windows还是linux,都可以在命令行中执行“ping 对方ip”

相关文档
最新文档