虚拟机以致,提供方向脚本

实践求证:

实验证实:

 未来的繁多试验都将以Linux平台下的 KVM虚构机为主,所以不可少的就是Virt-Manager 虚构机微处理机。

本章将对什么样设置和行使Virt-Manager微处理机进行讲明,而且会对(实验用卡塔 尔(阿拉伯语:قطر‎设想机举办简要安插,方便早先时期实验。

尝试验证:

在自动化布置时,会时常SSH别的机器去操作,不过每一遍的密码验证却很令人忧虑,特别是不短的密码,由此SSH免密登入就显得供给;

在机器数目相当多的时候,使用更过的频频是Ansible分发并实施SSH免密登入脚本,使得每台机器之间都能免密登入。

实验遭受:

  • 宿主机系统   :Fedora 28 WorkStation
  • 设想机微电脑 :Virt-Manager 1.5.1
  • 设想机配置   :ha1  CentOS 7.2 1511 (minimal)   virbr0:
    192.168.122.57
                 ha2  虚拟机以致,提供方向脚本。CentOS 7.2 1511 (minimal)   virbr0:
    192.168.122.58
                 ha3  CentOS 7.2 1511 (minimal)   virbr0:
    192.168.122.59

试验情况:

  • 宿主机系统   :Fedora 28 WorkStation
  • 设想机微型机 :Virt-Manager 1.5.1
  • 虚构机配置   :ha1  CentOS 7.2 1511 (minimal)   virbr0:
    192.168.122.57     (待创建)
                 ha2  CentOS 7.2 1511 (minimal)   virbr0:
    192.168.122.58     (待创建)
                 ha3  CentOS 7.2 1511 (minimal)   virbr0:
    192.168.122.59     (待创建)

试增势况:

  • 宿主机系统   :Fedora 28 WorkStation
  • 设想机微机 :Virt-Manager 1.5.1
  • 设想机配置   :ha1  CentOS 7.2 1511 (minimal)   virbr0:
    192.168.122.57
                 ha2  CentOS 7.2 1511 (minimal)   virbr0:
    192.168.122.58
                 ha3  CentOS 7.2 1511 (minimal)   virbr0:
    192.168.122.59

实施步骤:

试验步骤:

  1. ### 准备镜像CentOS 7.4 1804  

  2. ### 安装 Virt-Manager

    # dnf install virt-manager libvirt -y
    

    ### 打开 Virt-Manager

    # virt-manager
    # 弹框输入密码即可
    
  3. ### 创建 KVM 虚拟机 选择 Local install media(ISO image or CDROM) –>  Forward 图片 1 选择ISO镜像,点击 Browse 图片 2 会进去选用镜像界面 图片 3 点击左下角加多镜像原来的书文件存款和储蓄地方 比如作者的镜像在 /home/Documents 文件夹,以后拉长它 Name为 Documents,Type为dir,Target Path暗中认可就能够 图片 4 图片 5 加多家成业就,选取镜像 图片 6 图片 7 上面安装设想机内部存款和储蓄器和CPU数目 图片 8 其次是设置卷(磁盘卡塔尔国大小及岗位,可改正 图片 9 确认配置参数以致安装网络 –> Finish 图片 10 起始设置系统 图片 11

  4. ### 安装系统

  5. ### 系统联网开始化详细见 此链接

    ### 设置网卡开机自启

    # sed -i '/ONBOOT/s/no/yes/' /etc/sysconfig/network-scripts/ifcfg-eth0 
    # systemctl restart network
    # ip a        ##先设置ip,方便通过主机ssh到虚拟机
    

    ### 设置静态IP地址

  6. ### 设置主机名

    # hostnamectl set-hostname HOSTNAME
    
  7. ### 配置hosts文件

    # vi /etc/hosts
    
  8. ### 关闭防火墙

    # systemctl stop firewalld && systemctl disable firewalld
    
  9. ### 关闭 SElinux

    # sed -i  "s/^SELINUX=.*/SELINUX=disabled/g"  /etc/selinux/config
    
  10. ### 更换 YUM 源

    # mkdir -p /etc/yum.repos.d/bak
    # mv /etc/yum.repos.d/CentOS-* /etc/yum.repos.d/bak
    # mv Cent* bak # curl -o /etc/yum.repos.d/CentOS-Base.repo http://mirrors.aliyun.com/repo/Centos-7.repo
    # yum clean all
    # yum makecache
    
  11. ### 更新系统

    # yum upgrade
    
  12. ### COMPLETE!!!

施行步骤:

  1. ### 安装系统并配备互连网(全数虚构机都需联网卡塔 尔(阿拉伯语:قطر‎

  2. ### 先操作第意气风发台设想机(ha1卡塔 尔(阿拉伯语:قطر‎

  3. ### 编写主机名与IP的炫人眼目关系

    1 [root@ha1 ~]# vi /etc/hosts
    2 127.0.0.1   localhost localhost.localdomain localhost4 localhost4.localdomain4
    3 ::1         localhost localhost.localdomain localhost6 localhost6.localdomain6
    4 192.168.122.57    ha1
    5 192.168.122.58    ha2
    6 192.168.122.59    ha3
    
  4. ### 创建公有密钥

     1 [root@ha1 ~]# ssh-keygen -t rsa 
     2 Generating public/private rsa key pair.
     3 Enter file in which to save the key (/root/.ssh/id_rsa): 
     4 /root/.ssh/id_rsa already exists.
     5 Overwrite (y/n)? y
     6 Enter passphrase (empty for no passphrase): 
     7 Enter same passphrase again: 
     8 Your identification has been saved in /root/.ssh/id_rsa.
     9 Your public key has been saved in /root/.ssh/id_rsa.pub.
    10 The key fingerprint is:
    11 40:c3:81:eb:60:49:2e:f7:fe:59:bb:ef:7d:ad:bb:06 root@ha2
    12 The key's randomart image is:
    13 +--[ RSA 2048]----+
    14 |     o+.         |
    15 |  . ....         |
    16 | o . ..          |
    17 |. * .  .         |
    18 | + +    S        |
    19 |    o       E    |
    20 |   .    .    . . |
    21 |    .  o . .  o .|
    22 |     .o o+o .o++ |
    23 +-----------------+
    
  5. ### 发送公有密钥至远程机器

    1 [root@ha1 ~]# ssh-copy-id root@192.168.122.58
    2 [root@ha1 ~]# ssh-copy-id root@192.168.122.59
    
  6. ### 以上是单台虚构机的逐一施行命令的艺术,将以上操作写成脚本(脚本在本文末尾PS处卡塔尔

  7. ### 上边操作别的虚拟机(ha2、ha3卡塔尔

    1 # 虚拟机ha2
    2 [root@ha2 ~]# chmod 777 build-ssh-credit.sh 
    3 [root@ha2 ~]# ./build-ssh-credit.sh 
    
    1 # 虚拟机ha3
    2 [root@ha3 ~]# chmod 777 build-ssh-credit.sh 
    3 [root@ha3 ~]# ./build-ssh-credit.sh 
    
  8. ### 至此,三台设想机之间相互访谈都没有必要输入密码,完结了SSH的免密登入

  9. ### Complete!!!

宿主机上操作:重要涉嫌ntp服务器的搭建以致fencing的安插

  1. ### 确定保证宿主机系统是联网的,配置互连网请参照他事他说加以考察 此链接

  2. ### 安装 virt-manager

    # dnf install virt-manager libvirt
    
  3. ### 使用virt-manager创设kvm设想机并布置kvm设想机 请参照他事他说加以侦查 此链接

  4. ### 安装fence、ntpd等软件

    # dnf install -y ntp fence-virtd fence-virtd-multicast fence-virtd-libvirt fence-virt*
    
  5. ### 配置ntpd 设置区时为香岛

    # timedatectl list-timezones | grep Shanghai
    # timedatectl set-timezone Asia/Shanghai
    

    ### 改过ntp配置文件

    # 删除原配置中的相关配置项
    # sed -e '/^server/d' -e '/^#server/d' -e '/^fudge/d' -e '/^#fudge/d' -i /etc/ntp.conf
    
    # 在结尾添加ntp服务器配置
    # sed -e '$a server 127.127.1.0' -e '$a fudge 127.127.1.0 stratum' -i /etc/ntp.conf 
    

    ### 设置开机自启、开启服务并查阅情状

    # systemctl enable ntpd.service && systemctl start ntpd.service && systemctl status ntpd.service
    

     

    ntpq -c peers 
    ntpq -c assoc 
    timedatectl 
    
  6. ### 配置fence-virtd

    ### 创建 /etc/cluster 文件夹

    # mkdir -p /etc/cluster
    

    ### 生成fence_xvm.key文件

    # echo fecb9e62cbcf4e54dcfb > /etc/cluster/fence_xvm.key
    

    ### 初始化fence_virtd

    # fence_virtd -c
    

    ### 确认模块搜索路线 图片 12 确认监听方式 图片 13 确认监听IP地址以致端口 图片 14 确认监听网卡接口 图片 15 确认密钥路线 图片 16 确认后端设想化模块 图片 17 确认Libvirt URL 图片 18 是不是替换文件 图片 19

    ### 设置开机自启、开启服务并查看情状

    # systemctl enable fence_virtd && systemctl start fence_virtd && systemctl status fence_virtd
    
  7. ### 验证fencevirtd 查询全数情形的虚构机

    # fence_xvm -o list
    

    ###  查询结果如下图: 图片 20

  8. ### Fencing操作 关闭全数已开启的设想机

    # 启动(on)、关机(off)、重启(reboot)、状态获取(status)
    # fence_xvm -o off -H HA1
    # fence_xvm -o off -H HA2
    # fence_xvm -o off -H HA3
    

    ### 再度询问,结果如下图: 图片 21

PS:公钥初步化和促成SSH免密登录的台本(build-ssh-credit.sh),一直拷贝就可采取。

#!/usr/bin/bash

# 安装expect,minimal没有此rpm包,需联网或有本地yum源
yum install expect -y
expect << EOF
set timeout 10

# 创建公有密钥

spawn ssh-keygen -t rsa
expect {
        "*to save the key" {send "n";exp_continue}
        "*(y/n)" {send "yr";exp_continue}
        "Enter passphrase" {send "n";exp_continue}
        "Enter same passphrase" {send "n";exp_continue}
}

EOF

#  获取/etc/hosts文件中除localhost的映射关系
ip_list=`grep -v 'localhost' /etc/hosts | awk -F ' ' '{print $1,$2}'`
for ip in $ip_list
do
expect << EOF
        set timeout 2

        # 发送公有密钥
        spawn ssh-copy-id root@$ip
        expect {
                "yes/no" {send "yesr";exp_continue}
                "password" {send "000000r";exp_continue}
        }

        # 拷贝/etc/hosts文件到远程机器
        spawn scp /etc/hosts $ip:/etc
        expect {
                "yes/no" {send "yesr";exp_continue}
                "password" {send "rootr";exp_continue}
        }
EOF
done

 

kvm虚构机上操作:主要涉及Ntp服务同步和Pacemaker集群的搭建

  1. ### 配置kvm虚拟机

  2. ### 安装ntpd、pcs等软件

    # yum install -y ntp pcs pacemaker corosync fence-agents-all resource-agents
    
  3. ### 配置ntpd 与宿主机上操作看似,此处不再进行

    1 # timedatectl set-timezone Asia/Shanghai
    2 
    3 # sed -i s/^server.*// /etc/ntp.conf
    4 # echo "server 192.168.43.177 iburst" >> /etc/ntp.conf
    5 # echo "SYNC_HWCLOCK=yes" >> /etc/sysconfig/ntpdate
    6 # systemctl enable ntpd.service && systemctl start ntpd.service && systemctl status ntpd.service
    

    ### 查询当前岁月设置

    # timedatectl
    
  4. ### 配置Pacemaker集群 检查是否安装Pacemaker软件 创制Fencing设备密钥Key

    # mkdir -p /etc/cluster
    # echo fecb9e62cbcf4e54dcfb > /etc/cluster/fence_xvm.key
    

    ### 设置hacluster客户密码

    # echo 000000|passwd --stdin hacluster
    

    ### 成立Pacemaker集群 创建时须要张开授权认证,以致必要充裕到集群的主机名

    # pcs cluster auth ha1 ha2 ha3 -u hacluster -p 000000 --force
    

    ### 设置集群的名称时索要钦定集群名称和急需加上到集群的主机名

    # pcs cluster setup --force --name openstack-ha ha1 ha2 ha3
    

    ### 设置在集群具备节点运维时启用corosync和pacemaker

    # pcs cluster enable --all
    

    ### 设置在集群具有节点都张开集群

    # pcs cluster start --all
    

    ### 查询集群状态

    # pcs status
    

    ### 为了落到实处对设想机的Fencing操作,供给为Pacemaker集群配置Stonith能源

    1 # pcs stonith create fence1 fence_xvm multicast_address=225.0.0.12
    2 # pcs stonith create fence2 fence_xvm multicast_address=225.0.0.12
    3 # pcs stonith create fence3 fence_xvm multicast_address=225.0.0.12
    

    ### 查询集群状态

    [root@ha1 ~]# pcs status
    Cluster name: openstack-ha
    Stack: corosync
    Current DC: ha1 (version 1.1.18-11.el7_5.3-2b07d5c5a9) - partition with quorum
    Last updated: Thu Aug 16 15:30:59 2018
    Last change: Thu Aug 16 12:44:03 2018 by root via cibadmin on ha1
    
    3 nodes configured
    3 resources configured
    
    Online: [ ha1 ha2 ha3 ]
    
    Full list of resources:
    
     fence1    (stonith:fence_xvm):    Started ha1
     fence2    (stonith:fence_xvm):    Started ha2
     fence3    (stonith:fence_xvm):    Started ha3
    
    Daemon Status:
      corosync: active/enabled
      pacemaker: active/enabled
      pcsd: active/enabled
    

    ### 查询当前 Pacemaker 集群中的 Stonith 资源

    [root@ha1 ~]# pcs stonith show
     fence1    (stonith:fence_xvm):    Started ha1
     fence2    (stonith:fence_xvm):    Started ha2
     fence3    (stonith:fence_xvm):    Started ha3