add ansible role
parent
58e00cd820
commit
1426db5f82
|
@ -0,0 +1,5 @@
|
||||||
|
[defaults]
|
||||||
|
host_key_checking = false
|
||||||
|
inventory = ./hosts.ini
|
||||||
|
#private_key_file = /home/sysadmin/.ssh/id_rsa
|
||||||
|
private_key_file = /home/da2001/.ssh/id_rsa
|
|
@ -0,0 +1,5 @@
|
||||||
|
---
|
||||||
|
- name: Используется роль для создания ВМ стенда
|
||||||
|
hosts: proxmox
|
||||||
|
roles:
|
||||||
|
- deploy_vms
|
|
@ -0,0 +1,2 @@
|
||||||
|
[proxmox]
|
||||||
|
pve ansible_host=10.1.1.10 ansible_user=root
|
|
@ -0,0 +1,29 @@
|
||||||
|
---
|
||||||
|
language: python
|
||||||
|
python: "2.7"
|
||||||
|
|
||||||
|
# Use the new container infrastructure
|
||||||
|
sudo: false
|
||||||
|
|
||||||
|
# Install ansible
|
||||||
|
addons:
|
||||||
|
apt:
|
||||||
|
packages:
|
||||||
|
- python-pip
|
||||||
|
|
||||||
|
install:
|
||||||
|
# Install ansible
|
||||||
|
- pip install ansible
|
||||||
|
|
||||||
|
# Check ansible version
|
||||||
|
- ansible --version
|
||||||
|
|
||||||
|
# Create ansible.cfg with correct roles_path
|
||||||
|
- printf '[defaults]\nroles_path=../' >ansible.cfg
|
||||||
|
|
||||||
|
script:
|
||||||
|
# Basic role syntax check
|
||||||
|
- ansible-playbook tests/test.yml -i tests/inventory --syntax-check
|
||||||
|
|
||||||
|
notifications:
|
||||||
|
webhooks: https://galaxy.ansible.com/api/v1/notifications/
|
|
@ -0,0 +1,38 @@
|
||||||
|
Role Name
|
||||||
|
=========
|
||||||
|
|
||||||
|
A brief description of the role goes here.
|
||||||
|
|
||||||
|
Requirements
|
||||||
|
------------
|
||||||
|
|
||||||
|
Any pre-requisites that may not be covered by Ansible itself or the role should be mentioned here. For instance, if the role uses the EC2 module, it may be a good idea to mention in this section that the boto package is required.
|
||||||
|
|
||||||
|
Role Variables
|
||||||
|
--------------
|
||||||
|
|
||||||
|
A description of the settable variables for this role should go here, including any variables that are in defaults/main.yml, vars/main.yml, and any variables that can/should be set via parameters to the role. Any variables that are read from other roles and/or the global scope (ie. hostvars, group vars, etc.) should be mentioned here as well.
|
||||||
|
|
||||||
|
Dependencies
|
||||||
|
------------
|
||||||
|
|
||||||
|
A list of other roles hosted on Galaxy should go here, plus any details in regards to parameters that may need to be set for other roles, or variables that are used from other roles.
|
||||||
|
|
||||||
|
Example Playbook
|
||||||
|
----------------
|
||||||
|
|
||||||
|
Including an example of how to use your role (for instance, with variables passed in as parameters) is always nice for users too:
|
||||||
|
|
||||||
|
- hosts: servers
|
||||||
|
roles:
|
||||||
|
- { role: username.rolename, x: 42 }
|
||||||
|
|
||||||
|
License
|
||||||
|
-------
|
||||||
|
|
||||||
|
BSD
|
||||||
|
|
||||||
|
Author Information
|
||||||
|
------------------
|
||||||
|
|
||||||
|
An optional section for the role authors to include contact information, or a website (HTML is not allowed).
|
|
@ -0,0 +1,13 @@
|
||||||
|
---
|
||||||
|
|
||||||
|
pve_storage: local
|
||||||
|
api_host: 10.1.1.10
|
||||||
|
api_user: root@pam
|
||||||
|
api_password: P@ssw0rd
|
||||||
|
node: altv
|
||||||
|
key_name: id_rsa.pub
|
||||||
|
server_template: s-tmpl
|
||||||
|
ws_template: ws-tmpl
|
||||||
|
kws_template: kws-tmpl
|
||||||
|
vm_user: root
|
||||||
|
vm_password: P@ssw0rd
|
|
@ -0,0 +1,2 @@
|
||||||
|
---
|
||||||
|
# handlers file for deploy_vms
|
|
@ -0,0 +1,53 @@
|
||||||
|
galaxy_info:
|
||||||
|
author: your name
|
||||||
|
description: your role description
|
||||||
|
company: your company (optional)
|
||||||
|
|
||||||
|
# If the issue tracker for your role is not on github, uncomment the
|
||||||
|
# next line and provide a value
|
||||||
|
# issue_tracker_url: http://example.com/issue/tracker
|
||||||
|
|
||||||
|
# Choose a valid license ID from https://spdx.org - some suggested licenses:
|
||||||
|
# - BSD-3-Clause (default)
|
||||||
|
# - MIT
|
||||||
|
# - GPL-2.0-or-later
|
||||||
|
# - GPL-3.0-only
|
||||||
|
# - Apache-2.0
|
||||||
|
# - CC-BY-4.0
|
||||||
|
license: license (GPL-2.0-or-later, MIT, etc)
|
||||||
|
|
||||||
|
min_ansible_version: 2.9
|
||||||
|
|
||||||
|
# If this a Container Enabled role, provide the minimum Ansible Container version.
|
||||||
|
# min_ansible_container_version:
|
||||||
|
|
||||||
|
#
|
||||||
|
# Provide a list of supported platforms, and for each platform a list of versions.
|
||||||
|
# If you don't wish to enumerate all versions for a particular platform, use 'all'.
|
||||||
|
# To view available platforms and versions (or releases), visit:
|
||||||
|
# https://galaxy.ansible.com/api/v1/platforms/
|
||||||
|
#
|
||||||
|
# platforms:
|
||||||
|
# - name: Fedora
|
||||||
|
# versions:
|
||||||
|
# - all
|
||||||
|
# - 25
|
||||||
|
# - name: SomePlatform
|
||||||
|
# versions:
|
||||||
|
# - all
|
||||||
|
# - 1.0
|
||||||
|
# - 7
|
||||||
|
# - 99.99
|
||||||
|
|
||||||
|
galaxy_tags: []
|
||||||
|
# List tags for your role here, one per line. A tag is a keyword that describes
|
||||||
|
# and categorizes the role. Users find roles by searching for tags. Be sure to
|
||||||
|
# remove the '[]' above, if you add tags to this list.
|
||||||
|
#
|
||||||
|
# NOTE: A tag is limited to a single word comprised of alphanumeric characters.
|
||||||
|
# Maximum 20 tags per role.
|
||||||
|
|
||||||
|
dependencies: []
|
||||||
|
# List your role dependencies here, one per line. Be sure to remove the '[]' above,
|
||||||
|
# if you add dependencies to this list.
|
||||||
|
|
|
@ -0,0 +1,61 @@
|
||||||
|
---
|
||||||
|
|
||||||
|
- name: Серверы - Клонирование ВМ из шаблона
|
||||||
|
community.general.proxmox_kvm:
|
||||||
|
node: "{{ node }}"
|
||||||
|
name: "{{ item.value.name }}"
|
||||||
|
newid: "{{ item.value.vmid }}"
|
||||||
|
api_user: "{{ api_user }}"
|
||||||
|
api_password: "{{ api_password }}"
|
||||||
|
api_host: "{{ api_host }}"
|
||||||
|
clone: "{{ server_template }}"
|
||||||
|
storage: "{{ pve_storage }}"
|
||||||
|
format: qcow2
|
||||||
|
timeout: 500
|
||||||
|
loop: "{{ lookup('dict', server_vms) }}"
|
||||||
|
|
||||||
|
- name: Серверы - Настройка IP адресов
|
||||||
|
command: "qm set {{ item.value.vmid }} --ipconfig0 gw={{ item.value.gw }},ip={{ item.value.ip }}"
|
||||||
|
loop: "{{ lookup('dict', server_vms) }}"
|
||||||
|
|
||||||
|
- name: Серверы - Настройка DNS
|
||||||
|
command: "qm set {{ item.value.vmid }} --nameserver {{ item.value.dns }}"
|
||||||
|
loop: "{{ lookup('dict', server_vms) }}"
|
||||||
|
|
||||||
|
- name: Серверы - Создание пользователя root
|
||||||
|
command: "qm set {{ item.value.vmid }} --ciuser {{ vm_user }}"
|
||||||
|
loop: "{{ lookup('dict', server_vms) }}"
|
||||||
|
|
||||||
|
- name: Серверы - Создание пароля пользователя root
|
||||||
|
command: "qm set {{ item.value.vmid }} --cipassword {{ vm_password }}"
|
||||||
|
loop: "{{ lookup('dict', server_vms) }}"
|
||||||
|
|
||||||
|
- name: Серверы - Копирование SSH ключей в ВМ
|
||||||
|
command: "qm set {{ item.value.vmid }} --sshkey {{ key_name }}"
|
||||||
|
args:
|
||||||
|
chdir: ~/.ssh
|
||||||
|
loop: "{{ lookup('dict', server_vms) }}"
|
||||||
|
|
||||||
|
- name: Серверы - Обновление параметров ВМ
|
||||||
|
community.general.proxmox_kvm:
|
||||||
|
api_host: "{{ api_host }}"
|
||||||
|
api_user: "{{ api_user }}"
|
||||||
|
api_password: "{{ api_password }}"
|
||||||
|
cores: "{{ item.value.cores }}"
|
||||||
|
sockets: "{{ item.value.sockets }}"
|
||||||
|
memory: "{{ item.value.memory }}"
|
||||||
|
update: true
|
||||||
|
vmid: "{{ item.value.vmid }}"
|
||||||
|
node: "{{ node }}"
|
||||||
|
name: "{{ item.value.name }}"
|
||||||
|
loop: "{{ lookup('dict', server_vms) }}"
|
||||||
|
|
||||||
|
- name: Серверы - Запуск ВМ
|
||||||
|
community.general.proxmox_kvm:
|
||||||
|
api_host: "{{ api_host }}"
|
||||||
|
api_password: "{{ api_password }}"
|
||||||
|
api_user: "{{ api_user }}"
|
||||||
|
vmid: "{{ item.value.vmid }}"
|
||||||
|
node: "{{ node }}"
|
||||||
|
state: started
|
||||||
|
loop: "{{ lookup('dict', server_vms) }}"
|
|
@ -0,0 +1,61 @@
|
||||||
|
---
|
||||||
|
|
||||||
|
- name: Рабочая станция - Клонирование ВМ из шаблона
|
||||||
|
community.general.proxmox_kvm:
|
||||||
|
node: "{{ node }}"
|
||||||
|
name: "{{ item.value.name }}"
|
||||||
|
newid: "{{ item.value.vmid }}"
|
||||||
|
api_user: "{{ api_user }}"
|
||||||
|
api_password: "{{ api_password }}"
|
||||||
|
api_host: "{{ api_host }}"
|
||||||
|
clone: "{{ server_template }}"
|
||||||
|
storage: "{{ pve_storage }}"
|
||||||
|
format: qcow2
|
||||||
|
timeout: 500
|
||||||
|
loop: "{{ lookup('dict', ws_vms) }}"
|
||||||
|
|
||||||
|
- name: Рабочая станция - Настройка IP адресов
|
||||||
|
command: "qm set {{ item.value.vmid }} --ipconfig0 gw={{ item.value.gw }},ip={{ item.value.ip }}"
|
||||||
|
loop: "{{ lookup('dict', server_vms) }}"
|
||||||
|
|
||||||
|
- name: Рабочая станция - Настройка DNS
|
||||||
|
command: "qm set {{ item.value.vmid }} --nameserver {{ item.value.dns }}"
|
||||||
|
loop: "{{ lookup('dict', ws_vms) }}"
|
||||||
|
|
||||||
|
- name: Рабочая станция - Создание пользователя root
|
||||||
|
command: "qm set {{ item.value.vmid }} --ciuser {{ vm_user }}"
|
||||||
|
loop: "{{ lookup('dict', ws_vms) }}"
|
||||||
|
|
||||||
|
- name: Рабочая станция - Создание пароля пользователя root
|
||||||
|
command: "qm set {{ item.value.vmid }} --cipassword {{ vm_password }}"
|
||||||
|
loop: "{{ lookup('dict', ws_vms) }}"
|
||||||
|
|
||||||
|
- name: Рабочая станция - Копирование SSH ключей в ВМ
|
||||||
|
command: "qm set {{ item.value.vmid }} --sshkey {{ key_name }}"
|
||||||
|
args:
|
||||||
|
chdir: ~/.ssh
|
||||||
|
loop: "{{ lookup('dict', ws_vms) }}"
|
||||||
|
|
||||||
|
- name: Рабочая станция - Обновление параметров ВМ
|
||||||
|
community.general.proxmox_kvm:
|
||||||
|
api_host: "{{ api_host }}"
|
||||||
|
api_user: "{{ api_user }}"
|
||||||
|
api_password: "{{ api_password }}"
|
||||||
|
cores: "{{ item.value.cores }}"
|
||||||
|
sockets: "{{ item.value.sockets }}"
|
||||||
|
memory: "{{ item.value.memory }}"
|
||||||
|
update: true
|
||||||
|
vmid: "{{ item.value.vmid }}"
|
||||||
|
node: "{{ node }}"
|
||||||
|
name: "{{ item.value.name }}"
|
||||||
|
loop: "{{ lookup('dict', ws_vms) }}"
|
||||||
|
|
||||||
|
- name: Рабочая станция - Запуск ВМ
|
||||||
|
community.general.proxmox_kvm:
|
||||||
|
api_host: "{{ api_host }}"
|
||||||
|
api_password: "{{ api_password }}"
|
||||||
|
api_user: "{{ api_user }}"
|
||||||
|
vmid: "{{ item.value.vmid }}"
|
||||||
|
node: "{{ node }}"
|
||||||
|
state: started
|
||||||
|
loop: "{{ lookup('dict', ws_vms) }}"
|
|
@ -0,0 +1,7 @@
|
||||||
|
---
|
||||||
|
|
||||||
|
- name: Создание серверной группировки
|
||||||
|
include_tasks: tasks/deploy_servers.yml
|
||||||
|
|
||||||
|
- name: Создание клиентских рабочих станций
|
||||||
|
include_tasks: tasks/deploy_ws.yml
|
|
@ -0,0 +1,2 @@
|
||||||
|
localhost
|
||||||
|
|
|
@ -0,0 +1,5 @@
|
||||||
|
---
|
||||||
|
- hosts: localhost
|
||||||
|
remote_user: root
|
||||||
|
roles:
|
||||||
|
- deploy_vms
|
|
@ -0,0 +1,50 @@
|
||||||
|
---
|
||||||
|
|
||||||
|
server_vms:
|
||||||
|
alts1:
|
||||||
|
name: alts1.alt.lan
|
||||||
|
ip: 10.1.1.11/24
|
||||||
|
gw: 10.1.1.9
|
||||||
|
dns: 77.88.8.8
|
||||||
|
vmid: 201
|
||||||
|
cores: 2
|
||||||
|
sockets: 1
|
||||||
|
memory: 2048
|
||||||
|
alts2:
|
||||||
|
name: alts2.alt.lan
|
||||||
|
ip: 10.1.1.12/24
|
||||||
|
gw: 10.1.1.9
|
||||||
|
dns: 77.88.8.8
|
||||||
|
vmid: 202
|
||||||
|
cores: 2
|
||||||
|
sockets: 1
|
||||||
|
memory: 2048
|
||||||
|
alts3:
|
||||||
|
name: alts3.alt.lan
|
||||||
|
ip: 10.1.1.13/24
|
||||||
|
gw: 10.1.1.9
|
||||||
|
dns: 77.88.8.8
|
||||||
|
vmid: 203
|
||||||
|
cores: 2
|
||||||
|
sockets: 1
|
||||||
|
memory: 2048
|
||||||
|
|
||||||
|
ws_vms:
|
||||||
|
ws:
|
||||||
|
name: ws.alt.lan
|
||||||
|
ip: 10.1.1.14/24
|
||||||
|
gw: 10.1.1.9
|
||||||
|
dns: 77.88.8.8
|
||||||
|
vmid: 204
|
||||||
|
cores: 2
|
||||||
|
sockets: 1
|
||||||
|
memory: 2048
|
||||||
|
kws:
|
||||||
|
name: kws.alt.lan
|
||||||
|
ip: 10.1.1.15/24
|
||||||
|
gw: 10.1.1.9
|
||||||
|
dns: 77.88.8.8
|
||||||
|
vmid: 205
|
||||||
|
cores: 2
|
||||||
|
sockets: 1
|
||||||
|
memory: 2048
|
Binary file not shown.
After Width: | Height: | Size: 199 KiB |
Binary file not shown.
After Width: | Height: | Size: 90 KiB |
|
@ -0,0 +1,162 @@
|
||||||
|
# Выпускная квалификационная работа по курсу "Системное и сетевое администрирование ОС Альт"
|
||||||
|
|
||||||
|
## Тема: Автоматизация развертывания служб каталога Active Directory
|
||||||
|
|
||||||
|
Разворачивается следующая конфигурация:
|
||||||
|
|
||||||
|
* Основной контроллер домена (Альт Сервер)
|
||||||
|
* Резервный контроллер домена (Альт Сервер)
|
||||||
|
* Файловый сервер (Альт Сервер) в составе домена (службы NFS и SMB)
|
||||||
|
* Клиентский узел 1 (Альт Рабочая станция)
|
||||||
|
* Клиентский узел 2 (Альт Рабочая станция К).
|
||||||
|
|
||||||
|
Тестируются: определение расположения служб домена, создание доменного пользователя, получение билета средствами Kerberos, доступность NFS и SMB- служб сервера при kerberos-аутентификации, успешное проведение репликации между контроллерами. Графический вход доменных пользователей на клиентские узлы.
|
||||||
|
Эмулируется сбой одного из контроллеров, проверяется работоспособность окружения с оставшимся контроллером.
|
||||||
|
Возможно успешность применения групповых политик (включение/выключение определенной службы, убедиться что служба выключилась)
|
||||||
|
|
||||||
|
***
|
||||||
|
|
||||||
|
## Описание стенда
|
||||||
|
|
||||||
|
В основе стенда используется узел с установленной системой Альт Сервер виртуализации 10.1, в качестве гипервизора - решение PVE.
|
||||||
|
|
||||||
|

|
||||||
|
|
||||||
|
Рисунок 1 - Схема стенда
|
||||||
|
|
||||||
|
Для доступа к системе виртуализации и выполнения задач автоматизированной настройки и запуска скриптов используется узел с ОС Альт Рабочая станция 10.1 `altcl (10.1.1.20)`.
|
||||||
|
|
||||||
|
## Предварительная настройка
|
||||||
|
|
||||||
|
Для подготовки окружения будет использован Ansible, запускаться задания будут с узла `altcl (10.1.1.20)`.
|
||||||
|
|
||||||
|
Для работы Ansible с гипервизором PVE, написан соответствующий модуль `proxmox_kvm`. В свою очередь, для работы модуля `proxmox_kvm` на узле виртуализации, необходимо установить пакеты `requests` и `proxmoxer`. В репозитории Альт это пакеты `python3-module-proxmoxer`, `python3-module-requests`.
|
||||||
|
|
||||||
|
Т. к. модуль `proxmox_kvm` разработан сообществом, на узле `altcl (10.1.1.20)` необходимо установить поддержку community модулей ansible командой
|
||||||
|
|
||||||
|
```bash
|
||||||
|
ansible-galaxy collection install community.general
|
||||||
|
```
|
||||||
|
|
||||||
|
## Подготовка шаблона Альт Сервер
|
||||||
|
|
||||||
|
Шаблон будет подготовлен вручную — конвертирован из виртуальной машины, которая будет предварительно настроена.
|
||||||
|
|
||||||
|
Виртуальная машина имеет следующие характеристики:
|
||||||
|
|
||||||
|
* ОЗУ: 2 Гб
|
||||||
|
* ЦПУ: 2
|
||||||
|
* Диск: 32 Гб
|
||||||
|
* Диск CloudInit
|
||||||
|
|
||||||
|
остальные значения устанавливаются по-умолчанию. В качестве ОС используется Альт Сервер 10.1. При установке ОС используется профиль `Минимальная установка` с отмеченным пунктом `NetworkManager`, т. к. он необходим для работы CloudInit.
|
||||||
|
|
||||||
|

|
||||||
|
|
||||||
|
Рисунок 2 - Выбор компонентов ОС
|
||||||
|
|
||||||
|
После установки операционной системы необходимо выполнить обновление и установку дополнительных компонентов:
|
||||||
|
|
||||||
|
* обновление пакетов и ядра операционной системы
|
||||||
|
|
||||||
|
```bash
|
||||||
|
apt-get update && apt-get dist-upgrade -y && update-kernel -y
|
||||||
|
```
|
||||||
|
|
||||||
|
* установка дополнительных необязательных пакетов
|
||||||
|
|
||||||
|
```bash
|
||||||
|
apt-get install -y qemu-guest-agent mc tmux htop tree
|
||||||
|
```
|
||||||
|
|
||||||
|
* пакеты для работы CloudInit
|
||||||
|
|
||||||
|
```bash
|
||||||
|
apt-get install -y cloud-init cloud-init-config-etcnet
|
||||||
|
apt-get install -y cloud-utils-growpart cloud-utils
|
||||||
|
```
|
||||||
|
|
||||||
|
* после установки пакетов CloudInit необходимо добавить соответствующие службы в автозагрузку
|
||||||
|
|
||||||
|
```bash
|
||||||
|
systemctl enable cloud-init-local
|
||||||
|
systemctl enable cloud-init
|
||||||
|
systemctl enable cloud-config
|
||||||
|
systemctl enable cloud-final
|
||||||
|
```
|
||||||
|
|
||||||
|
Виртуальная машина готова, её необходимо выключить и конвертировать в шаблон.
|
||||||
|
|
||||||
|
## Подготовка шаблона Альт Рабочая станция и Альт Рабочая станция К
|
||||||
|
|
||||||
|
Как и шаблон для сервера, шаблоны виртуальных машин Рабочая станция и Рабочая станция К также подготовлены вручную — конвертированы из соответствующих, предварительно настроенных виртуальных машин.
|
||||||
|
|
||||||
|
Виртуальные машины имеют следующие характеристики:
|
||||||
|
|
||||||
|
* ОЗУ: 2 Гб
|
||||||
|
* ЦПУ: 2
|
||||||
|
* Диск: 32 Гб
|
||||||
|
* Диск CloudInit
|
||||||
|
|
||||||
|
остальные значения устанавливаются по-умолчанию. В качестве ОС используются Альт Рабочая станция 10.1 и Альт Рабочая станция К 10.1 соответственно. При установке операционной системы задаются значения, предлагаемые установщиком.
|
||||||
|
|
||||||
|
После установки операционной системы необходимо выполнить обновление и установку дополнительных компонентов:
|
||||||
|
|
||||||
|
* включение SSH сервера, т.к. в Рабочей станции он отключен
|
||||||
|
|
||||||
|
```bash
|
||||||
|
systemctl enable --now sshd
|
||||||
|
```
|
||||||
|
|
||||||
|
Следующие шаги идентичны тем, которые выполнялись при настройке сервера:
|
||||||
|
|
||||||
|
* обновление пакетов и ядра операционной системы
|
||||||
|
|
||||||
|
```bash
|
||||||
|
apt-get update && apt-get dist-upgrade -y && update-kernel -y
|
||||||
|
```
|
||||||
|
|
||||||
|
* установка дополнительных необязательных пакетов
|
||||||
|
|
||||||
|
```bash
|
||||||
|
apt-get install -y qemu-guest-agent mc tmux htop tree
|
||||||
|
```
|
||||||
|
|
||||||
|
* пакеты для работы CloudInit
|
||||||
|
|
||||||
|
```bash
|
||||||
|
apt-get install -y cloud-init cloud-init-config-etcnet
|
||||||
|
apt-get install -y cloud-utils-growpart cloud-utils
|
||||||
|
```
|
||||||
|
|
||||||
|
* после установки пакетов CloudInit необходимо добавить соответствующие службы в автозагрузку
|
||||||
|
|
||||||
|
```bash
|
||||||
|
systemctl enable cloud-init-local
|
||||||
|
systemctl enable cloud-init
|
||||||
|
systemctl enable cloud-config
|
||||||
|
systemctl enable cloud-final
|
||||||
|
```
|
||||||
|
|
||||||
|
Виртуальные машины готовы, их необходимо выключить и конвертировать в шаблон.
|
||||||
|
|
||||||
|
## Разворачивание группировки виртуальных машин
|
||||||
|
|
||||||
|
Для автоматизированного развёртывания виртуальных машин на гипервизор PVE используется ansible роль `deploy_vms_role.yml`.
|
||||||
|
|
||||||
|
Стоит обратить внимание, что при создании виртуальных машин из шаблонов, с помощью механизма CloudInit задаются уникальные IP адреса, имена хостов, а также пароль пользователя root. Кроме этого, также с помощью CloudInit в виртуальные машины копируется ssh ключ. Т.к. на этапе развёртывания CloudInit может взаимодействовать только с файловой системой гипервизора, ssh ключ, который копируется в виртуальные машины, необходимо заранее подготовить и сохранить в файловой системе гипервизора `/root/.ssh/` с именем, указанным в переменной `key_name`
|
||||||
|
|
||||||
|
Процесс создания группировки виртуальных машин запускается из директории `ansible` с помощью команды:
|
||||||
|
|
||||||
|
```bash
|
||||||
|
ansible-playbook deploy_vms_role.yml
|
||||||
|
```
|
||||||
|
|
||||||
|
В результате выполнения команды в гипервизоре PVE будут созданы 5 виртуальных машин в соответствии со схемой стенда:
|
||||||
|
|
||||||
|
1. `alts1` - Основной контроллер домена
|
||||||
|
2. `alts2` - Резервный контроллер
|
||||||
|
3. `alts3` - Файловый сервер
|
||||||
|
4. `ws` - Клиент, Рабочая станция
|
||||||
|
5. `kws` - Клиент, Рабочая станция К
|
||||||
|
|
Loading…
Reference in New Issue