一 什么是kvm
KVM 全称 Kernel-Based Virtual Machine。也就是说 KVM 是基于 Linux 内核实现的,这就使得linux内核本身就相当于一个Hypervisor。
Hypervisor即vmm,主要功能就是用来控制生成vm,并管理多个vm的运行,不同的vm中可以安装不同的操作系统,这些操作系统共用一台硬件主机,
因为直接使用linux内核的调度器进行管理,所以比xen的代码少很多
二 为何要用kvm
虚拟化是云计算的基础之一,而无论是在部署,还是在研发、测试方面,kvm都是排在第一位的Hypervisor(即vmm)。
kvm以高性能,可扩展性、高安全性,以及低成本而深受用户喜爱,这一切也与他基于linux内核实现有关。
三 kvm的功能
kvm用一个个进程来运行虚拟机。
最主要的功能:
- 基于kvm,可以执行热迁移,将一个运行的虚拟机从一个运行vm从一台物理机移动到另外一台物理主机,而vm里的运行不受影响(几台部署kvm虚拟化的物理机共享一个存储,存储内存放虚拟机的xml文件,这样在另外一台主机启一个虚拟机的进程是很快的,然后关联上待迁移主机的xml文件,就实现了热迁移);
- 可以保存当前虚拟机的运行状态到硬盘,然后可以重新启动虚拟机,这是虚拟机的运行状态和之前一样。
其余功能:
- 支持CPU 和 memory 超分(Overcommit)
- 支持半虚拟化I/O (virtio)
- 支持热插拔 (cpu,块设备、网络设备等)
- 支持对称多处理(Symmetric Multi-Processing,缩写为 SMP )
- 支持 PCI 设备直接分配和 单根I/O 虚拟化 (SR-IOV)
- 支持 内核同页合并 (KSM )
- 支持 NUMA (Non-Uniform Memory Access,非一致存储访问结构 )
四 常见虚拟化模式
按照Hypervisor的实现方式和位置不同,常见的形式分两种
1. 全虚拟化
物理机上首先安装常规的操作系统( Redhat、Ubuntu 和 Centos等),然后在操作系统上安装kvm,kvm即Hypervisor,它会 作为 OS 上的一个程序模块运行,并对管理虚拟机进行管理。除此之外:VirtualBox 和 VMWare Workstation 都属于这个类型。
2. 半虚拟化
Hypervisor 直接安装在物理机上,多个虚拟机在 Hypervisor 上运行。Hypervisor 实现方式一般是一个特殊定制的 Linux 系统。Xen 和 VMWare 的 ESXi 都属于这个类型。
五 KVM架构
openstack可以兼容很多虚拟化解决方案,其中最主要的就是针对x86平台的kvm。
KVM 全称 Kernel-Based Virtual Machine。也就是说 KVM 是基于 Linux 内核实现的,这就使得linux内核本身就相当于一个Hypervisor。
具体的:
基于kvm创建的vm就是一个普通的linux进程,由linux内核调度程序进行调度,vm因此可以使用linux内核已有的功能。vm的执行本质就是vm中cpu的执行,因此vm的每个cpu就是普通的linux进程。
KVM有一个内核模块叫 kvm.ko,只提供 CPU 和内存的虚拟化,而针对于IO及其他硬件设备(网络及存储等)的虚拟化,则是交给qemu实现,qemu运行在用户态通过/dev/kvm接口设置一个客户机虚拟机服务器的地址空间,向kvm提供模拟的I/O,并且将它的视频显示映射回宿主的显示屏。
其实qemu本身就是一种虚拟化技术,它与kvm的区别如下
1. 上图的左侧:完全基于Qemu纯软件(不包含操作系统内核)实现的虚拟化。kqemu是通过kqemu模块实现内核态的加速,在用户态的qemu通过访问/dev/kqemu设备文件接口调用改进加速。不过,此类模式主要针对Guest os与Host os属于统一cpu架构(比如都是x86的架构)。一个明显的缺点是性能低下。
2. 上图的右侧:qemu+kvm实现的虚拟化(即qemu-kvm)。具体的,KVM并不能算是一个完整的虚拟化解决方案,kvm只是Linux标准内核加载了一个据说有几万行代码的模块kvm.ko。也就是说KVM仅可以在VT技术的基础上,提供虚拟的处理器和虚拟内存,至于IO硬件的模仿都交给qemu去做。
创建虚拟机流程
- 标准的Linux内核中加入KVM的模块kvm.ko变身成为一个VMM(VMM Virtual MachineMonitor)
- 在原有的用户模式(工作在ring3)和内核模式(工作在ring0)两种模式的基础上增加了新的客户模式。客户模式存在的特权级别与ring0-3正交。(也就是说客户模式也存在4个特权级别)
- 用户创建虚拟机,通过调用用户模式的qemu程序,qemu与kvm提供的libkvm库为接口,传递创建指令。
- 打开/dev/kvm文件并获得文件描述符fd后,通过ioctl指令写入KVM_CREATE_KVM,即可创建一个虚拟机,并返回一个fd_vm的虚拟机文件描述符。
- 获得fd_vm后,通过ioctl调用KVM_CREATE_VCPU指令,可以对fd_vm所对应的虚拟机创建vCPU,并对vCPU做初始化操作。
- 然后通过KVM_RUN指令对fd_vcpus操作,启动运行虚拟机。
总结:
- Guest OS(此处vm1的linux os):客户机系统,包括CPU(vCPU)、内存、驱动(Console、网卡、I/O 设备驱动等),被 KVM 置于一种受限制的 CPU 模式下运行。
- KVM:运行在内核空间,提供CPU 和内存的虚级化,以及客户机的 I/O 拦截。Guest 的 I/O 被 KVM 拦截后,交给 QEMU 处理。
- QEMU:修改过的为 KVM 虚机使用的 QEMU 代码,运行在用户空间,提供硬件 I/O 虚拟化,通过 IOCTL /dev/kvm 设备和 KVM 交互。
KVM 是实现拦截虚机的 I/O 请求的原理:
QEMU-KVM:
其实 QEMU 原本不是 KVM 的一部分,它自己就是一个纯软件实现的虚拟化系统,所以其性能低下。但是,QEMU 代码中包含整套的虚拟机实现,包括处理器虚拟化,内存虚拟化,以及 KVM需要使用到的虚拟设备模拟(网卡、显卡、存储控制器和硬盘等)。
为了简化代码,KVM 在 QEMU 的基础上做了修改。VM 运行期间,QEMU 会通过 KVM 模块提供的系统调用进入内核,由 KVM 负责将虚拟机置于处理的特殊模式运行。遇到虚机进行 I/O 操作,KVM 会从上次的系统调用出口处返回 QEMU,由 QEMU 来负责解析和模拟这些设备。
从 QEMU 的角度看,也可以说是 QEMU 使用了 KVM 模块的虚拟化功能,为自己的虚机提供了硬件虚拟化加速。除此以外,虚机的配置和创建、虚机运行说依赖的虚拟设备、虚机运行时的用户环境和交互,以及一些虚机的特定技术比如动态迁移,都是 QEMU 自己实现的。
KVM:
KVM 内核模块在运行时按需加载进入内核空间运行。KVM 本身不执行任何设备模拟,需要 QEMU 通过 /dev/kvm 接口设置一个 GUEST OS 的地址空间,向它提供模拟的 I/O 设备,并将它的视频显示映射回宿主机的显示屏。它是KVM 虚机的核心部分,其主要功能是初始化 CPU 硬件,打开虚拟化模式,然后将虚拟客户机运行在虚拟机模式下,并对虚机的运行提供一定的支持。以在 Intel 上运行为例,KVM 模块被加载的时候,它:
- 首先初始化内部的数据结构;
- 做好准备后,KVM 模块检测当前的 CPU,然后打开 CPU 控制及存取 CR4 的虚拟化模式开关,并通过执行 VMXON 指令将宿主操作系统置于虚拟化模式的根模式;
- 最后,KVM 模块创建特殊设备文件 /dev/kvm 并等待来自用户空间的指令。
四 KVM工具集合
Libvirt:简单说就是 KVM 的管理工具。并且Libvirt 除了能管理 KVM 这种 Hypervisor,还能同时管理 vmware,XEN,Hyper-v, LXC,QEMU 等多种Hypervisor。
Libvirt 本质就是一组API,通常部署完libvirt后,都会包含 3 样东西:一个API 库,一个后台守护进程libvirtd和一个命令行工具virsh。
- API 库使得其他人可以开发基于 Libvirt 的高级工具,比如 virt-manager,这是个图形化管理KVM的常用工具。;
- libvirtd是服务程序,接收和处理 API 请求;
- virsh :基于 libvirt 的 命令行的常用工具 (CLI)。
一:libvirt实现在一台物理机上同时跑多个虚拟机监控程序vmm
libvirt期初是专门为Xen设计的一种管理API,后来被扩展为可支持多个VMM,libvirt以一组API的形式存在,负责与每个vmm通信,完成API请求
左图是没有引入libvirt时,一台机器只能运行一个Hypervisor/vmm,右图是引入了libvirt时,一台机器可以同时运行多个Hypervisor/vmm,此时需要注意的是,libvirt把物理主机称作节点,将来宾操作系统(guest os)称为域Domain,而libvirt及其应用程序在宿主机Domain 0中运行
二 libvirtd提供从远程应用程序访问本地域的方式
三 libvrt api与相关驱动程序的层次结构。
libvirt 已经为表 1 所列举出来的的虚拟机监控程序实现了驱动程序。随着新的虚拟机监控程序在开源社区出现,其他驱动程序无疑也将可用。
四 libvirt主要功能总结
- Domain(虚拟机)管理:启动、停止、暂停、保存、恢复和迁移。支持多种涉笔类型的热插拔,如磁盘、网卡、内存和cpu。
- 远程访问支持:见图2,只要在一台主机上运行libvirtd守护进程,所有的libvirt功能就都可以访问和使用。支持多种网络远程传播,使用最简单的SSH,不需要额外的配置工作,比如example.com物理机运行了libvirtd,而且允许SSH访问,下面命令就可以在远程的主机上使用virsh命令:virsh -connect qemu+ssh://root@example.com/system
- 存储管理:任何运行了libvirtd的主机都可以用来管理不同类型的存储,如创建不同格式的文件映像(qcow2,vmdk,raw等),挂接NFS共享、列出现有的LVM卷组、创建新的LVM卷组和逻辑卷、对未处理过的磁盘设备分区、挂在iSCSI共享等等,因为libvirt可以远程工作,所有这些都可以通过远程主机来使用。
- 网络接口管理:任何运行了libvirtd的主机都可用来管理物理和逻辑的网络接口,可以列出现有的接口、配置参数、桥接、VLAN和关联设备等,也可以创建新的网络接口。
- 虚拟NAT和基于路由的网络:任何运行了libvirtd的主机都可以用来管理和创建虚拟网络。libvirt虚拟网络使用防火墙规则作为路由器,让虚拟机可以透明访问主机的网络。
ps:libvirt使用 C 语言编写,可以由 Python,Ruby, Perl, PHP, Java 等语言调用,OpenStack 底层也使用 libvirt。更详细猛击这里
除此之外还包含下列工具:
virt-v2v:虚机格式迁移工具
virt-* 工具:包括 virt-install(创建KVM虚机的命令行工具),virt-viewer(连接到虚机屏幕的工具),virt-clone(虚机克隆工具),virt-top 等
sVirt:安全工具
五 kvm部署
5.1 虚拟化支持
KVM虚拟化需要CPU的硬件辅助虚拟化的支持,用来加速,在本环境中为Intel的CPU,使用的Intel VT技术。(该功能在有些主机里面可能需要去BIOS里面开启)
5.2 软件准备
操作系统: CentOS 7.2
软件包: CentOS自带yum源
关闭防火墙
关闭SELinux:将 /etc/sysconfig/selinux 中的 SELinux=enforcing 修改为 SELinux=disabled
开始安装
5.3 检查CPU虚拟化支持
如果是用vmware workstation的虚拟机做kvm实验的化,需要开启嵌套虚拟化
1.在物理机BIOS设置里开启虚拟化功能
2.此时你的vm仍然不能开启虚拟化,下列两个
3.找到这台虚拟机存在的目录
4.打开该目录找到.vmx结尾的文件,增加一行
apic.xapic.enabled = "FALSE"
5.关闭虚拟机,然后启动,就可以勾选开启虚拟化功能了
进入虚拟机后查看虚拟化支持:
# grep -E 'svm|vmx' /proc/cpuinfo
vmx 为Intel的CPU指令集
svm 为AMD的CPU指令集
5.4 安装软件包
[root@localhost ~]# yum grouplist |grep '虚拟'
虚拟化主机
[root@localhost ~]# yum -y groupinstall '虚拟化主机'
[root@localhost 桌面]# lsmod |grep kvm
kvm_intel 138567 0
kvm 441119 1 kvm_intel
#以上输出说明内核模块加载成功,其中: kvm作为核心模块,协同QEMU实现整个虚拟化环境的正常运行。 kvm_intel作为平台(Intel)独立模块,激活KVM环境的CPU硬件虚拟化支持。
qemu-kvm:主要的KVM程序包,该软件包主要包含KVM内核模块和基于KVM重构后的QEMU模拟器。KVM模块作为整个虚拟化环境的核心工作在系统空间,负责CPU和内存的调度。QEMU作为模拟器工作在用户空间,负责虚拟机I/O模拟。
qemu-img:主要用来QEMU磁盘镜像的管理,如新建一块磁盘镜像给虚拟机。
libvirt:提供Hypervisor和虚拟机管理的API。
libvirt-client:KVM客户端命令行管理工具virsh,负责虚拟机的启动、停止和管理等。 libvirt-daemon:libvirtd守护进程,作为客户端管理工具跟Hypervisor和虚拟机之间的桥梁。
libvirt-daemon-driver-xxx:从名字来看属于libvirtd服务的驱动文件,作为libvirtd服务跟Hypervisor不同对象(如qemu模拟器,网络,存储等)间的接口。 libvirt-python:python的libvirt库
python-virtinst:创建虚拟机所需要的命令行工具和程序库 virt-install:创建和克隆虚拟机的命令行工具包。
virt-manager:图形界面的KVM管理工具。
virt-top:虚拟机统计命令
virt-viewer:GUI连接程序,连接到已配置好的虚拟机 bridge-utils:网桥管理工具包,负责桥接网络的创建、配置和管理等工作。
kvm相关安装包及其作用
5.5 激活并启动libvirtd服务
systemctl enable libvirtd
systemctl start libvirtd
5.6 网络模式
详见http://blog.csdn.net/cooling88/article/details/52203998
NAT方式:
virbr0网桥相当于一个hub或交换机,eth0相当于路由器,virbr0-nic相当于交换机virbr0上的一个接口,这个接口连接一根网线到路由器eth0
Bridge的方式:
br0网桥相当于一个hub或交换机,eth0相当于相当于交换机br0上的一个接口,这个接口连接一根网线到物理网络
尝试着从下图总找出上述所说
5.7 配置桥接网络
默认情况下所有虚拟机只能够在host内部互相通信,如果需要通过局域网访问虚拟机,需要创建一个桥接网络。
1.停止NetworkManager服务
# systemctl stop NetworkManager
该服务开启的情况下直接去修改网卡的配置文件会造成信息的不匹配而导致网卡激活不了。
2.修改以太网卡配置文件
(修改前先备份)# cd /etc/sysconfig/network-scripts
# vi ifcfg-eth0
DEVICE=eth0
BOOTPROTO=static
ONBOOT=yes
BRIDGE=br0
HWADDR=b8:ae:ed:7d:9d:11
NM_CONTROLLED=no
原有的以太网络不需要配置IP地址,指定桥接的网卡设备(如br0)即可。
3.修改桥接网卡配置文件
# cd /etc/sysconfig/network-scripts
# vi ifcfg-br0
TYPE=Bridge
HWADDR=b8:ae:ed:7d:9d:11
BOOTPROTO=static
DEVICE=br0
ONBOOT=yes
IPADDR=192.168.2.10
NETMASK=255.255.255.0
GATEWAY=192.168.2.1
DNS1=202.103.24.68
NM_CONTROLLED=no
#桥接网卡的需要配置IP地址,当然也可以用DHCP。需要注意的是桥接网卡br0中DEVICE的名字一定要与以太网卡eno1中BRIDGE对应。
强调:
#网卡配置文件中NM_CONTROLLED参数设置为no #执行: [root@localhost ~]# systemctl stop NetworkManager
[root@localhost ~]# systemctl disable NetworkManager
开启主机IP地址转发
# vi /etc/sysctl.conf
net.ipv4.ip_forward = 1
# sysctl -p
重启网络服务
# systemctl restart network
ps:针对NAT网路须知
需要掌握iptables:
详细规则参考:http://blog.csdn.net/yu_xiang/article/details/9218589
#源地址转换:内部访问外部
iptables -t nat -A POSTROUTING -s 192.168.0.0/24 -j SNAT --to-source 58.20.51.66
iptables-t nat -A POSTROUTING -s 10.8.0.0/255.255.255.0 -o eth0 -j MASQUERADE #目标地址转换:外部访问内部
iptables -t nat -A PREROUTING -d 202.103.96.112 -j DNAT --to-destination 192.168.0.112
5.8 验证网络
# ip a
eno1: mtu 1500 qdisc pfifo_fast master br0 state UP
br0: mtu 1500 qdisc noqueue state UP
inet 192.168.2.10/24 brd 192.168.2.255 scope global br0
截取了部分输出,eno1和br0网卡都处于激活状态,eno1桥接到br0,br0被分配了静态IP地址。
5.9 尝试连接Hypervisor
# virsh -c qemu:///system list
# virsh list
Id Name State
----------------------------------------
(由于没有创建虚拟机,所以没有条目显示)
5.10 创建虚拟机
方法一:# virt-manager
针对这种方法,我们可以在服务端部署vncserver,然后用VNC Viewer来连接它的桌面,然后用图形化去创建虚拟机
#安装X-Windows图形界面
yum -y groupinstall "X Window System"
yum -y install gnome-classic-session gnome-terminal nautilus-open-terminal control-center liberation-mono-fonts
#设置默认启动图形界面
unlink /etc/systemd/system/default.target
ln -sf /lib/systemd/system/graphical.target /etc/systemd/system/default.target
reboot #安装vnc服务
yum install tigervnc-server -y
#配置vnc
cp /lib/systemd/system/vncserver@.service /etc/systemd/system/vncserver@:1.service
vim /etc/systemd/system/vncserver@\:1.service
#修改内容
#ExecStart=/sbin/runuser -l root -c "/usr/bin/vncserver %i"
#PIDFile=/root/.vnc/%H%i.pid #重启systemd
systemctl daemon-reload #为root用户设置密码
vncpasswd
systemctl enable vncserver@:1.service
systemctl start vncserver@:1.service #添加防火墙规则,放行vncserver
firewall-cmd --permanent --add-service vnc-server
systemctl restart firewalld.service #客户端连接
#打开vncviewer客户端工具,然后访问地址是:服务端ip:1
部署vncserver
方法二:virt-install
1:粗糙版:执行完了,并不能立即安装操作系统
#要有桥brctl add-br br0
#安装选项可用virt-install --help查看,写的非常清楚
virt-install \
--name guest1-centos7-64 \
--memory 1024 \
--arch x86_64 \
--vcpus 2 \
--os-variant=rhel7 \
--disk /var/lib/libvirt/images/guest1-centos7-64.img,device=disk,bus=virtio,size=20,sparse=true \
--network bridge=br0 \
--noautoconsole \
--location=/iso/CentOS-7.0-1406-x86_64-DVD.iso
virt-install \ #安装选项可用virt-install --help查看
--name=guest1-centos7-64 \ #虚拟机名称
--ram=1024 \ #内存大小以MB为单位
--arch=x86_64 \ #cpu架构
--vcpus=2 \ #虚拟机cpu的个数
--check-cpu \ #检查确定vcpu是否超过物理cpu个数,超过则发出警告
--os-type=linux \ #要安装的操作系统类型,例如linux,unix,windows
--os-variant=centos7.2 \ #要安装的操作系统版本
--disk path=/var/lib/libvirt/images/guest1-centos7-64.img,device=disk,bus=virtio,size=20,sparse=true \ #虚拟机所用的磁盘文件或镜像文件,size以G为单位
#--diskpath=/data/new.img,format=qcow2,size=10,bus=virtio \ #后面会讲到制作qcow2格式的镜像
#--nonsparse \
--network bridge=br0 \ #指定网络,采用网桥
--noautoconsole \ #不自动开启控制台
--location=http://example1.com/installation_tree/RHEL5.6-Serverx86_64/os \ #指定安装操作系统给的镜像位置
#--pxe \ #也可以是无人值守安装
#--graphics #指定安装通过哪种类型,可以是vnc,也可以没有图形,在这里我们没有使用图形直接使用文本方式
注释
2:改进版:在命令行直接文本的方式装系统
必须先做如下操作:
#针对Centos7+kvm为了执行console功能,即在控制台以文本的方式控制vm
#在虚机里运行
[root@localhost ~]# grubby --update-kernel=ALL --args="console=ttyS0"
[root@localhost ~]# reboot
然后才可以在命令行安装操作系统
virt-install \
--name test1 \
--memory 1024 \
--arch x86_64 \
--vcpus 2 \
--os-type linux \
--os-variant=rhel7 \
--disk /data/kvm/test02.qcow2,format=qcow2,size=10,bus=virtio \
--network bridge=virbr0 \
--location=/iso/CentOS-7.0-1406-x86_64-DVD.iso \
--graphics none \
--console pty,target_type=serial \
--extra-args 'console=ttyS0,115200n8 serial'
方法三 使用 qemu-img 和 qemu-kvm 命令行方式安装
(1)创建一个空的qcow2格式的镜像文件
qemu-img create -f qcow2 windows-master.qcow2 10G
(2)启动一个虚机,将系统安装盘挂到 cdrom,安装操作系统
qemu-kvm -hda windows-master.qcow2 -m 512 -boot d -cdrom /home/user/isos/en_winxp_pro_with_sp2.iso
(3)现在你就拥有了一个带操作系统的镜像文件。你可以以它为模板创建新的镜像文件。使用模板的好处是,它会被设置为只读所以可以免于破坏。
qemu-img create -b windows-master.qcow2 -f qcow2 windows-clone.qcow2
(4)你可以在新的镜像文件上启动虚机了
qemu-kvm -hda windows-clone.qcow2 -m 400
5.11 虚拟机操作
开关虚拟机
virsh start guest1-centos7-64 #开机
virsh shutdown guest1-centos7-64 #关机
virsh destroy guest1-centos7-64 #强制关闭电源
virsh list --all #查看虚拟机状态
远程管理虚拟机(qemu+ssh连接)
#在被管理的机器上
yum -y install virt-viewer
export DISPLAY=被管理机IP:0.0
virt-virt-viewer -c qemu///system guest1-centos7-64 #本地管理虚拟机,获取system权限,注意qemu后是三个/ #在管理机上
virt-viewer -c qemu+ssh://root@被管理机IP/system guest1-centos7-64 #远程linux通过virt-viewer+ssh管理虚拟机guest1-centos7-64
制作镜像文件
参考 http://www.361way.com/kvm-qcow2-preallocation-metadata/3354.html 示例:qemu-img create -f qcow2 -opreallocation=metadata /data/test02.img 10G;
raw格式与qcow2格式的对比:
raw的优势如下:
- 简单,是转为其他虚拟机格式的通用中间格式,并能够到处到其他引进模拟器中去
- 在支持稀疏文件的系统上,根据实际使用量来占用空间,而非原先设定的最大值(比如设定最高20GB,而实际只使用3GB)
- 以后能够改变空间的最大值(把最高值20GB提高到200GB,qcow2也可以,不过要转换为raw)
- 能够直接被宿主机挂载,不用开虚拟机即可在宿主机和vm之间进行数据传输(此时不能开机)
- 直接读写虚拟机硬盘里的文件
qocw2性能更好:
- 即使在不支持稀疏的文件系统上,也可以获得最小的空间
- 可以动态扩大,支持写时复制
- AES加密
- zlib压缩
- 支持多重虚拟机快照
- 然而raw的很多优势,必须是在关机是才可以用,如直接挂载。而在生成环境不可能让你这么做。
- raw格式不能做快照,后面有说明,需要转换为qcow2格式,如果要使用qcow2格式的虚拟磁盘,需要事先创建qcow2格式的虚拟磁盘。
1. 开始安装kvm a. 检查你的系统是否支持虚拟化 grep -Ei 'vmx|svm' /proc/cpuinfo 如果有输出内容,则支持,其中intelcpu支持会有vmx,amd cpu支持会有svm b. 通过yum安装虚拟化的软件包 c. 检查kvm模块是否加载 如果没有,需要执行 d. 配置网卡 ifcfg-br0改成如下: 说明:我的虚拟机是桥接模式,所以设置br0的ip和我的真机同样的网段,包括网关也是我路由器的ip,大家可以根据自己的环境去配置,目的是为了让虚拟机可以上网。 /etc/init.d/network restart eth0 Linkencap:Ethernet HWaddr 00:0C:29:55:A7:0A lo Linkencap:Local Loopback virbr0 Linkencap:Ethernet HWaddr 52:54:00:14:EF:D5 e. 启动或重启libvirtd服务和messagebus 服务 此时可以查看网络接口列表 2. 创建虚拟机 virt-install \ 说明: --diskpath=/data/test02.img,format=qcow2,size=10,bus=virtio 已有本地镜像可以 virt-install \ --name test02 \ --ram 512 \ --diskpath=/data/kvm/test02.qcow2,format=qcow2,size=10,bus=virtio \ --vcpus 1 \ --os-type linux \ --os-variant rhel7 \ --network bridge=br0 \ --graphics none \ --console pty,target_type=serial\ --location '/data/CentOS.iso' \ --extra-args'console=ttyS0,115200n8 serial' 会出现文本方式的安装界面,选择时区,安装包的选择(默认 Minial install)、root密码设置,创建新用户,以及网络配置。在此没看见有,注意设置一下DNS。 最后安装完,reboot就进入刚刚创建的虚拟机了。要想退回到宿主机,ctrl ] 即可。 virsh list 可以列出当前的子机列表。 virsh start test01 启动test01 virsh console test01 可以进入指定的子机 3. 克隆虚拟机 说明:默认,我们没有办法在宿主机直接shutdown自己,我们需要借助于子机上的acpid服务才可以,这个服务说白了就是让宿主机可以去调用子机的电源关闭的接口。所以,子机上需要安装并启动acpid服务。 克隆完后,virsh list all 就会发现clone1 这个子机,通过命令 4. virsh 常用操作 b. 关闭子机 c. 让子机随宿主机开机自动启动 d. 列出子机 e. 删除子机 f. 挂起子机 h. 恢复子机 5. 快照管理 b. 磁盘镜像转换格式 把raw格式转换为qcow格式(其实是复制了一份): qemu-img info /data/test01.qcow2 //再次查看格式,结果如下 现在我们还需要编辑子机配置文件,让它使用新格式的虚拟磁盘镜像文件 改为: c. 继续创建快照 列出快照: 查看当前子机的快照版本: test01子机的快照文件在 /var/lib/libvirt/qemu/snapshot/test01/ 目录下 d. 恢复快照 确认子机是否关闭 vish snapshot-list test01 //结果是 virsh snapshot-revert test01 1437248443 e. 删除快照 6. 磁盘扩容 a. 对于raw格式的虚拟磁盘扩容 qemu-img info /data/kvm/test03.img //本身只有9G 1. image: /data/kvm/test03.img 2. file format: raw 3. virtual size: 9.0G (9663676416 bytes) 4. disk size: 1.1G qemu-img resize /data/kvm/test03.img +2G qemu-img info /data/kvm/test03.img //现在增加了2G 1. image: /data/kvm/test03.img 2. file format: raw 3. virtual size: 11G (11811160064 bytes) 4. disk size: 1.1G 5. virsh destroy test03 //关闭test03虚拟机 fdisk -l 查看已经磁盘分区已经增加 但是磁盘挂载的空间并没有增加 Filesystem Size Used Avail Use%Mounted on /dev/mapper/VolGroup-lv_root 6.5G 579M 5.6G 10% / tmpfs 250M 0 250M 0%/dev/shm /dev/vda1 477M 26M 427M 6% /boot 因为新增加的空间还没有划分使用。所以要继续分区: 1. WARNING: DOS-compatible mode is deprecated.It's strongly recommended to 2. switch off the mode (command 'c') and change display units to 3. sectors (command 'u'). 4. 5. Command (m for help): p 6. 7. Disk /dev/vda: 11.8 GB, 11811160064 bytes 8. 16 heads, 63 sectors/track, 22885 cylinders 9. Units = cylinders of 1008 * 512 = 516096bytes 10.Sector size(logical/physical): 512 bytes / 512 bytes 11.I/O size(minimum/optimal): 512 bytes / 512 bytes 12.Diskidentifier: 0x000099f3 13. 14. Device Boot Start End Blocks Id System 15./dev/vda1 * 3 1018 512000 83 Linux 16.Partition 1does not end on cylinder boundary. 17./dev/vda2 1018 <font color="#ff0000">16645</font> 7875584 8e Linux LVM 18.Partition 2does not end on cylinder boundary. 19. 20.Command (mfor help):<font color="#ff0000"> n</font> 21.Commandaction 22. e extended 23. p primary partition (1-4) 24.p 25.Partitionnumber (1-4): <font color="#ff0000">3</font> 26.Firstcylinder (1-22885, default 1): <fontcolor="#ff0000">16646</font> 27.Lastcylinder, +cylinders or +size{K,M,G} (16646-22885, default 22885): 28.Usingdefault value 22885 29. 30.Command (mfor help): p 31. 32.Disk/dev/vda: 11.8 GB, 11811160064 bytes 33.16 heads, 63sectors/track, 22885 cylinders 34.Units =cylinders of 1008 * 512 = 516096 bytes 35.Sector size(logical/physical): 512 bytes / 512 bytes 36.I/O size(minimum/optimal): 512 bytes / 512 bytes 37.Diskidentifier: 0x000099f3 38. 39. Device Boot Start End Blocks Id System 40./dev/vda1 * 3 1018 512000 83 Linux 41.Partition 1does not end on cylinder boundary. 42./dev/vda2 1018 16645 7875584 8e Linux LVM 43.Partition 2does not end on cylinder boundary. 44.<fontcolor="#ff0000">/dev/vda3 16646 22885 3144960 83 Linux</font> 45. 46.Command (mfor help): w 47.Thepartition table has been altered! 48. 49.Callingioctl() to re-read partition table. 50. 51.WARNING:Re-reading the partition table failed with error 16: Device or resource busy. 52.The kernelstill uses the old table. The new table will be used at 53.the nextreboot or after you run partprobe(8) or kpartx(8) 54.Syncingdisks. 然后再把这个/dev/vda3 加入到lvm里面去: ls /dev/vda3 如果没有这个分区,需要重启一下。 [root@localhost ~]# pvcreate/dev/vda3 1. <spanstyle="line-height: 1.5; ">Physical volume "/dev/vda3" successfullycreated</span> [root@localhost ~]# pvs 1. PV VG Fmt Attr PSize PFree 2. /dev/vda2 <fontcolor="#ff0000"> VolGroup</font> lvm2a-- 7.51g 0 3. /dev/vda3 lvm2 --- 3.00g 3.00g [root@localhost ~]# vgextendVolGroup /dev/vda3 1. Volume group "VolGroup"successfully extended [root@localhost ~]# vgs 1. VG #PV #LV #SNAttr VSize <fontcolor="#ff0000">VFree</font> 2. VolGroup 2 2 0 wz--n- 10.50g <fontcolor="#ff0000">3.00g</font> [root@localhost ~]# lvs 1. LV VG Attr LSize PoolOrigin Data% Meta% Move Log Cpy%Sync Convert 2. lv_root VolGroup-wi-ao---- 6.71g 3. lv_swap VolGroup -wi-ao----816.00m [root@localhost ~]# lvextend -l +100%FREE /dev/VolGroup/lv_root 1. Size of logical volume VolGroup/lv_rootchanged from 6.71 GiB (1718 extents) to 9.71 GiB (2485 extents). 2. Logical volume lv_rootsuccessfully resized [root@localhost ~]# df -h 1. Filesystem Size Used Avail Use% Mounted on 2. /dev/mapper/VolGroup-lv_root 3. 6.5G 618M 5.6G 10% / 4. tmpfs 250M 0 250M 0% /dev/shm 5. /dev/vda1 477M 26M 427M 6% /boot [root@localhost ~]# resize2fs /dev/VolGroup/lv_root 1. resize2fs 1.41.12 (17-May-2010) 2. Filesystem at /dev/VolGroup/lv_root ismounted on /; on-line resizing required 3. old desc_blocks = 1, new_desc_blocks = 1 4. Performing an on-line resize of/dev/VolGroup/lv_root to 2544640 (4k) blocks. 5. The filesystem on /dev/VolGroup/lv_root isnow 2544640 blocks long. [root@localhost ~]# df -h 1. Filesystem Size Used Avail Use% Mounted on 2. /dev/mapper/VolGroup-lv_root 3. <fontcolor="#ff0000">9.5G </font>618M 8.4G 7% / 4. tmpfs 250M 0 250M 0% /dev/shm 5. /dev/vda1 477M 26M 427M 6% /boot 另外,如果是增加磁盘,思路是: 1. <disk type='file'device='disk'> 2. <driver name='qemu'type='raw' cache='none'/> 3. <source file='/data/kvm/test03_2.img'/> 4. <target dev='vdb'bus='virtio'/> 5. </disk> 开启虚拟机:virsh start test03 b. qcow2格式 7. 调整cpu和内存查看子机配置: 为: 重启虚拟机: 8. 不重启虚拟机在线增加网卡 9. 虚拟机迁移 该方式要确保虚拟机是关机状态。 virsh list --all //会发现新迁移的test03子机 |