add ansible role

main
Долгий Артём 2023-08-09 11:51:39 +03:00
parent 58e00cd820
commit 1426db5f82
18 changed files with 495 additions and 0 deletions

View File

5
ansible/ansible.cfg Normal file
View File

@ -0,0 +1,5 @@
[defaults]
host_key_checking = false
inventory = ./hosts.ini
#private_key_file = /home/sysadmin/.ssh/id_rsa
private_key_file = /home/da2001/.ssh/id_rsa

View File

@ -0,0 +1,5 @@
---
- name: Используется роль для создания ВМ стенда
hosts: proxmox
roles:
- deploy_vms

2
ansible/hosts.ini Normal file
View File

@ -0,0 +1,2 @@
[proxmox]
pve ansible_host=10.1.1.10 ansible_user=root

View File

@ -0,0 +1,29 @@
---
language: python
python: "2.7"
# Use the new container infrastructure
sudo: false
# Install ansible
addons:
apt:
packages:
- python-pip
install:
# Install ansible
- pip install ansible
# Check ansible version
- ansible --version
# Create ansible.cfg with correct roles_path
- printf '[defaults]\nroles_path=../' >ansible.cfg
script:
# Basic role syntax check
- ansible-playbook tests/test.yml -i tests/inventory --syntax-check
notifications:
webhooks: https://galaxy.ansible.com/api/v1/notifications/

View File

@ -0,0 +1,38 @@
Role Name
=========
A brief description of the role goes here.
Requirements
------------
Any pre-requisites that may not be covered by Ansible itself or the role should be mentioned here. For instance, if the role uses the EC2 module, it may be a good idea to mention in this section that the boto package is required.
Role Variables
--------------
A description of the settable variables for this role should go here, including any variables that are in defaults/main.yml, vars/main.yml, and any variables that can/should be set via parameters to the role. Any variables that are read from other roles and/or the global scope (ie. hostvars, group vars, etc.) should be mentioned here as well.
Dependencies
------------
A list of other roles hosted on Galaxy should go here, plus any details in regards to parameters that may need to be set for other roles, or variables that are used from other roles.
Example Playbook
----------------
Including an example of how to use your role (for instance, with variables passed in as parameters) is always nice for users too:
- hosts: servers
roles:
- { role: username.rolename, x: 42 }
License
-------
BSD
Author Information
------------------
An optional section for the role authors to include contact information, or a website (HTML is not allowed).

View File

@ -0,0 +1,13 @@
---
pve_storage: local
api_host: 10.1.1.10
api_user: root@pam
api_password: P@ssw0rd
node: altv
key_name: id_rsa.pub
server_template: s-tmpl
ws_template: ws-tmpl
kws_template: kws-tmpl
vm_user: root
vm_password: P@ssw0rd

View File

@ -0,0 +1,2 @@
---
# handlers file for deploy_vms

View File

@ -0,0 +1,53 @@
galaxy_info:
author: your name
description: your role description
company: your company (optional)
# If the issue tracker for your role is not on github, uncomment the
# next line and provide a value
# issue_tracker_url: http://example.com/issue/tracker
# Choose a valid license ID from https://spdx.org - some suggested licenses:
# - BSD-3-Clause (default)
# - MIT
# - GPL-2.0-or-later
# - GPL-3.0-only
# - Apache-2.0
# - CC-BY-4.0
license: license (GPL-2.0-or-later, MIT, etc)
min_ansible_version: 2.9
# If this a Container Enabled role, provide the minimum Ansible Container version.
# min_ansible_container_version:
#
# Provide a list of supported platforms, and for each platform a list of versions.
# If you don't wish to enumerate all versions for a particular platform, use 'all'.
# To view available platforms and versions (or releases), visit:
# https://galaxy.ansible.com/api/v1/platforms/
#
# platforms:
# - name: Fedora
# versions:
# - all
# - 25
# - name: SomePlatform
# versions:
# - all
# - 1.0
# - 7
# - 99.99
galaxy_tags: []
# List tags for your role here, one per line. A tag is a keyword that describes
# and categorizes the role. Users find roles by searching for tags. Be sure to
# remove the '[]' above, if you add tags to this list.
#
# NOTE: A tag is limited to a single word comprised of alphanumeric characters.
# Maximum 20 tags per role.
dependencies: []
# List your role dependencies here, one per line. Be sure to remove the '[]' above,
# if you add dependencies to this list.

View File

@ -0,0 +1,61 @@
---
- name: Серверы - Клонирование ВМ из шаблона
community.general.proxmox_kvm:
node: "{{ node }}"
name: "{{ item.value.name }}"
newid: "{{ item.value.vmid }}"
api_user: "{{ api_user }}"
api_password: "{{ api_password }}"
api_host: "{{ api_host }}"
clone: "{{ server_template }}"
storage: "{{ pve_storage }}"
format: qcow2
timeout: 500
loop: "{{ lookup('dict', server_vms) }}"
- name: Серверы - Настройка IP адресов
command: "qm set {{ item.value.vmid }} --ipconfig0 gw={{ item.value.gw }},ip={{ item.value.ip }}"
loop: "{{ lookup('dict', server_vms) }}"
- name: Серверы - Настройка DNS
command: "qm set {{ item.value.vmid }} --nameserver {{ item.value.dns }}"
loop: "{{ lookup('dict', server_vms) }}"
- name: Серверы - Создание пользователя root
command: "qm set {{ item.value.vmid }} --ciuser {{ vm_user }}"
loop: "{{ lookup('dict', server_vms) }}"
- name: Серверы - Создание пароля пользователя root
command: "qm set {{ item.value.vmid }} --cipassword {{ vm_password }}"
loop: "{{ lookup('dict', server_vms) }}"
- name: Серверы - Копирование SSH ключей в ВМ
command: "qm set {{ item.value.vmid }} --sshkey {{ key_name }}"
args:
chdir: ~/.ssh
loop: "{{ lookup('dict', server_vms) }}"
- name: Серверы - Обновление параметров ВМ
community.general.proxmox_kvm:
api_host: "{{ api_host }}"
api_user: "{{ api_user }}"
api_password: "{{ api_password }}"
cores: "{{ item.value.cores }}"
sockets: "{{ item.value.sockets }}"
memory: "{{ item.value.memory }}"
update: true
vmid: "{{ item.value.vmid }}"
node: "{{ node }}"
name: "{{ item.value.name }}"
loop: "{{ lookup('dict', server_vms) }}"
- name: Серверы - Запуск ВМ
community.general.proxmox_kvm:
api_host: "{{ api_host }}"
api_password: "{{ api_password }}"
api_user: "{{ api_user }}"
vmid: "{{ item.value.vmid }}"
node: "{{ node }}"
state: started
loop: "{{ lookup('dict', server_vms) }}"

View File

@ -0,0 +1,61 @@
---
- name: Рабочая станция - Клонирование ВМ из шаблона
community.general.proxmox_kvm:
node: "{{ node }}"
name: "{{ item.value.name }}"
newid: "{{ item.value.vmid }}"
api_user: "{{ api_user }}"
api_password: "{{ api_password }}"
api_host: "{{ api_host }}"
clone: "{{ server_template }}"
storage: "{{ pve_storage }}"
format: qcow2
timeout: 500
loop: "{{ lookup('dict', ws_vms) }}"
- name: Рабочая станция - Настройка IP адресов
command: "qm set {{ item.value.vmid }} --ipconfig0 gw={{ item.value.gw }},ip={{ item.value.ip }}"
loop: "{{ lookup('dict', server_vms) }}"
- name: Рабочая станция - Настройка DNS
command: "qm set {{ item.value.vmid }} --nameserver {{ item.value.dns }}"
loop: "{{ lookup('dict', ws_vms) }}"
- name: Рабочая станция - Создание пользователя root
command: "qm set {{ item.value.vmid }} --ciuser {{ vm_user }}"
loop: "{{ lookup('dict', ws_vms) }}"
- name: Рабочая станция - Создание пароля пользователя root
command: "qm set {{ item.value.vmid }} --cipassword {{ vm_password }}"
loop: "{{ lookup('dict', ws_vms) }}"
- name: Рабочая станция - Копирование SSH ключей в ВМ
command: "qm set {{ item.value.vmid }} --sshkey {{ key_name }}"
args:
chdir: ~/.ssh
loop: "{{ lookup('dict', ws_vms) }}"
- name: Рабочая станция - Обновление параметров ВМ
community.general.proxmox_kvm:
api_host: "{{ api_host }}"
api_user: "{{ api_user }}"
api_password: "{{ api_password }}"
cores: "{{ item.value.cores }}"
sockets: "{{ item.value.sockets }}"
memory: "{{ item.value.memory }}"
update: true
vmid: "{{ item.value.vmid }}"
node: "{{ node }}"
name: "{{ item.value.name }}"
loop: "{{ lookup('dict', ws_vms) }}"
- name: Рабочая станция - Запуск ВМ
community.general.proxmox_kvm:
api_host: "{{ api_host }}"
api_password: "{{ api_password }}"
api_user: "{{ api_user }}"
vmid: "{{ item.value.vmid }}"
node: "{{ node }}"
state: started
loop: "{{ lookup('dict', ws_vms) }}"

View File

@ -0,0 +1,7 @@
---
- name: Создание серверной группировки
include_tasks: tasks/deploy_servers.yml
- name: Создание клиентских рабочих станций
include_tasks: tasks/deploy_ws.yml

View File

@ -0,0 +1,2 @@
localhost

View File

@ -0,0 +1,5 @@
---
- hosts: localhost
remote_user: root
roles:
- deploy_vms

View File

@ -0,0 +1,50 @@
---
server_vms:
alts1:
name: alts1.alt.lan
ip: 10.1.1.11/24
gw: 10.1.1.9
dns: 77.88.8.8
vmid: 201
cores: 2
sockets: 1
memory: 2048
alts2:
name: alts2.alt.lan
ip: 10.1.1.12/24
gw: 10.1.1.9
dns: 77.88.8.8
vmid: 202
cores: 2
sockets: 1
memory: 2048
alts3:
name: alts3.alt.lan
ip: 10.1.1.13/24
gw: 10.1.1.9
dns: 77.88.8.8
vmid: 203
cores: 2
sockets: 1
memory: 2048
ws_vms:
ws:
name: ws.alt.lan
ip: 10.1.1.14/24
gw: 10.1.1.9
dns: 77.88.8.8
vmid: 204
cores: 2
sockets: 1
memory: 2048
kws:
name: kws.alt.lan
ip: 10.1.1.15/24
gw: 10.1.1.9
dns: 77.88.8.8
vmid: 205
cores: 2
sockets: 1
memory: 2048

BIN
img/01.png Normal file

Binary file not shown.

After

Width:  |  Height:  |  Size: 199 KiB

BIN
img/stand.png Normal file

Binary file not shown.

After

Width:  |  Height:  |  Size: 90 KiB

162
readme.md Normal file
View File

@ -0,0 +1,162 @@
# Выпускная квалификационная работа по курсу "Системное и сетевое администрирование ОС Альт"
## Тема: Автоматизация развертывания служб каталога Active Directory
Разворачивается следующая конфигурация:
* Основной контроллер домена (Альт Сервер)
* Резервный контроллер домена (Альт Сервер)
* Файловый сервер (Альт Сервер) в составе домена (службы NFS и SMB)
* Клиентский узел 1 (Альт Рабочая станция)
* Клиентский узел 2 (Альт Рабочая станция К).
Тестируются: определение расположения служб домена, создание доменного пользователя, получение билета средствами Kerberos, доступность NFS и SMB- служб сервера при kerberos-аутентификации, успешное проведение репликации между контроллерами. Графический вход доменных пользователей на клиентские узлы.
Эмулируется сбой одного из контроллеров, проверяется работоспособность окружения с оставшимся контроллером.
Возможно успешность применения групповых политик (включение/выключение определенной службы, убедиться что служба выключилась)
***
## Описание стенда
В основе стенда используется узел с установленной системой Альт Сервер виртуализации 10.1, в качестве гипервизора - решение PVE.
![Схема стенда](img/stand.png)
Рисунок 1 - Схема стенда
Для доступа к системе виртуализации и выполнения задач автоматизированной настройки и запуска скриптов используется узел с ОС Альт Рабочая станция 10.1 `altcl (10.1.1.20)`.
## Предварительная настройка
Для подготовки окружения будет использован Ansible, запускаться задания будут с узла `altcl (10.1.1.20)`.
Для работы Ansible с гипервизором PVE, написан соответствующий модуль `proxmox_kvm`. В свою очередь, для работы модуля `proxmox_kvm` на узле виртуализации, необходимо установить пакеты `requests` и `proxmoxer`. В репозитории Альт это пакеты `python3-module-proxmoxer`, `python3-module-requests`.
Т. к. модуль `proxmox_kvm` разработан сообществом, на узле `altcl (10.1.1.20)` необходимо установить поддержку community модулей ansible командой
```bash
ansible-galaxy collection install community.general
```
## Подготовка шаблона Альт Сервер
Шаблон будет подготовлен вручную — конвертирован из виртуальной машины, которая будет предварительно настроена.
Виртуальная машина имеет следующие характеристики:
* ОЗУ: 2 Гб
* ЦПУ: 2
* Диск: 32 Гб
* Диск CloudInit
остальные значения устанавливаются по-умолчанию. В качестве ОС используется Альт Сервер 10.1. При установке ОС используется профиль `Минимальная установка` с отмеченным пунктом `NetworkManager`, т. к. он необходим для работы CloudInit.
![](img/01.png)
Рисунок 2 - Выбор компонентов ОС
После установки операционной системы необходимо выполнить обновление и установку дополнительных компонентов:
* обновление пакетов и ядра операционной системы
```bash
apt-get update && apt-get dist-upgrade -y && update-kernel -y
```
* установка дополнительных необязательных пакетов
```bash
apt-get install -y qemu-guest-agent mc tmux htop tree
```
* пакеты для работы CloudInit
```bash
apt-get install -y cloud-init cloud-init-config-etcnet
apt-get install -y cloud-utils-growpart cloud-utils
```
* после установки пакетов CloudInit необходимо добавить соответствующие службы в автозагрузку
```bash
systemctl enable cloud-init-local
systemctl enable cloud-init
systemctl enable cloud-config
systemctl enable cloud-final
```
Виртуальная машина готова, её необходимо выключить и конвертировать в шаблон.
## Подготовка шаблона Альт Рабочая станция и Альт Рабочая станция К
Как и шаблон для сервера, шаблоны виртуальных машин Рабочая станция и Рабочая станция К также подготовлены вручную — конвертированы из соответствующих, предварительно настроенных виртуальных машин.
Виртуальные машины имеют следующие характеристики:
* ОЗУ: 2 Гб
* ЦПУ: 2
* Диск: 32 Гб
* Диск CloudInit
остальные значения устанавливаются по-умолчанию. В качестве ОС используются Альт Рабочая станция 10.1 и Альт Рабочая станция К 10.1 соответственно. При установке операционной системы задаются значения, предлагаемые установщиком.
После установки операционной системы необходимо выполнить обновление и установку дополнительных компонентов:
* включение SSH сервера, т.к. в Рабочей станции он отключен
```bash
systemctl enable --now sshd
```
Следующие шаги идентичны тем, которые выполнялись при настройке сервера:
* обновление пакетов и ядра операционной системы
```bash
apt-get update && apt-get dist-upgrade -y && update-kernel -y
```
* установка дополнительных необязательных пакетов
```bash
apt-get install -y qemu-guest-agent mc tmux htop tree
```
* пакеты для работы CloudInit
```bash
apt-get install -y cloud-init cloud-init-config-etcnet
apt-get install -y cloud-utils-growpart cloud-utils
```
* после установки пакетов CloudInit необходимо добавить соответствующие службы в автозагрузку
```bash
systemctl enable cloud-init-local
systemctl enable cloud-init
systemctl enable cloud-config
systemctl enable cloud-final
```
Виртуальные машины готовы, их необходимо выключить и конвертировать в шаблон.
## Разворачивание группировки виртуальных машин
Для автоматизированного развёртывания виртуальных машин на гипервизор PVE используется ansible роль `deploy_vms_role.yml`.
Стоит обратить внимание, что при создании виртуальных машин из шаблонов, с помощью механизма CloudInit задаются уникальные IP адреса, имена хостов, а также пароль пользователя root. Кроме этого, также с помощью CloudInit в виртуальные машины копируется ssh ключ. Т.к. на этапе развёртывания CloudInit может взаимодействовать только с файловой системой гипервизора, ssh ключ, который копируется в виртуальные машины, необходимо заранее подготовить и сохранить в файловой системе гипервизора `/root/.ssh/` с именем, указанным в переменной `key_name`
Процесс создания группировки виртуальных машин запускается из директории `ansible` с помощью команды:
```bash
ansible-playbook deploy_vms_role.yml
```
В результате выполнения команды в гипервизоре PVE будут созданы 5 виртуальных машин в соответствии со схемой стенда:
1. `alts1` - Основной контроллер домена
2. `alts2` - Резервный контроллер
3. `alts3` - Файловый сервер
4. `ws` - Клиент, Рабочая станция
5. `kws` - Клиент, Рабочая станция К