del github links
This commit is contained in:
99
README.md
99
README.md
@@ -1,4 +1,3 @@
|
|||||||
|
|
||||||
## 1. Произведите базовую настройку устройств
|
## 1. Произведите базовую настройку устройств
|
||||||
### ● Настройте имена устройств согласно топологии. Используйте полное доменное имя
|
### ● Настройте имена устройств согласно топологии. Используйте полное доменное имя
|
||||||
HQ-RTR | BR-RTR:
|
HQ-RTR | BR-RTR:
|
||||||
@@ -41,7 +40,7 @@
|
|||||||
маска /28 255.255.255.240 - 16 адресов (14 используемых)
|
маска /28 255.255.255.240 - 16 адресов (14 используемых)
|
||||||
192.168.0.72/28 192.168.0.73 – 192.168.0.86 192.168.0.87 - Broadcast
|
192.168.0.72/28 192.168.0.73 – 192.168.0.86 192.168.0.87 - Broadcast
|
||||||
### ● Сведения об адресах занесите в отчёт, в качестве примера используйте Таблицу 2, в качестве примера используйте Прил_3_О1_КОД 09.02.06-1-2026-М1
|
### ● Сведения об адресах занесите в отчёт, в качестве примера используйте Таблицу 2, в качестве примера используйте Прил_3_О1_КОД 09.02.06-1-2026-М1
|
||||||

|

|
||||||
|
|
||||||
| Имя Устройства | IPv4 | Интерфейс | NIC | Шлюз |
|
| Имя Устройства | IPv4 | Интерфейс | NIC | Шлюз |
|
||||||
| --------- | --------- | --------- | --------- | --------- |
|
| --------- | --------- | --------- | --------- | --------- |
|
||||||
@@ -339,14 +338,14 @@
|
|||||||
systemctl enable --now named
|
systemctl enable --now named
|
||||||
cp /etc/named.conf /etc/named.conf.backup - делаем бэкап файла
|
cp /etc/named.conf /etc/named.conf.backup - делаем бэкап файла
|
||||||
nano /etc/named.conf
|
nano /etc/named.conf
|
||||||

|

|
||||||

|

|
||||||
mkdir /var/named/master
|
mkdir /var/named/master
|
||||||
nano /var/named/master/au-team
|
nano /var/named/master/au-team
|
||||||

|

|
||||||
nano /var/named/master/168.192.zone
|
nano /var/named/master/168.192.zone
|
||||||
можно сделать через cp /var/named/master/au-team /var/named/master/168.192.zone, чтобы конфиг с нуля не писать
|
можно сделать через cp /var/named/master/au-team /var/named/master/168.192.zone, чтобы конфиг с нуля не писать
|
||||||

|

|
||||||
chown -R root:named /var/named/master/
|
chown -R root:named /var/named/master/
|
||||||
chown -R named:named /var/named
|
chown -R named:named /var/named
|
||||||
chown -R root:named /etc/named.conf
|
chown -R root:named /etc/named.conf
|
||||||
@@ -354,10 +353,10 @@
|
|||||||
chmod 750 /var/named/master/
|
chmod 750 /var/named/master/
|
||||||
systemctl restart named
|
systemctl restart named
|
||||||
Проверить зоны можно командой named-checkconf -z
|
Проверить зоны можно командой named-checkconf -z
|
||||||

|

|
||||||
Для полной работоспособности на HQ-CLI нужно установить в качестве dns севрера HQ-SRV:
|
Для полной работоспособности на HQ-CLI нужно установить в качестве dns севрера HQ-SRV:
|
||||||
nano /etc/resolv.conf на всех устройствах должен иметь следюущий вид:
|
nano /etc/resolv.conf на всех устройствах должен иметь следюущий вид:
|
||||||

|

|
||||||
resolvectl dns ens3 192.168.0.2
|
resolvectl dns ens3 192.168.0.2
|
||||||
Для полной работоспособности на HQ-RTR нужно установить в качестве dns севрера HQ-SRV:
|
Для полной работоспособности на HQ-RTR нужно установить в качестве dns севрера HQ-SRV:
|
||||||
ip name-server 192.168.0.2
|
ip name-server 192.168.0.2
|
||||||
@@ -424,43 +423,43 @@
|
|||||||
## • Введите в домен машину HQ-CLI
|
## • Введите в домен машину HQ-CLI
|
||||||
Ввод в домен HQ-CLI
|
Ввод в домен HQ-CLI
|
||||||
Переводим DHCP в полуавтоматический режим и указываем собственный DNS
|
Переводим DHCP в полуавтоматический режим и указываем собственный DNS
|
||||||

|

|
||||||

|

|
||||||

|

|
||||||
## 2. Сконфигурируйте файловое хранилище:
|
## 2. Сконфигурируйте файловое хранилище:
|
||||||
### Настройка проивзодится на HQ-SRV:
|
### Настройка проивзодится на HQ-SRV:
|
||||||
Перед тем как начать проверяем, что установлены следюущие пакеты
|
Перед тем как начать проверяем, что установлены следюущие пакеты
|
||||||
dnf install mdadm nfs-utils -y
|
dnf install mdadm nfs-utils -y
|
||||||
## • При помощи трёх дополнительных дисков, размером 1Гб каждый, на HQ-SRV сконфигурируйте дисковый массив уровня 5
|
## • При помощи трёх дополнительных дисков, размером 1Гб каждый, на HQ-SRV сконфигурируйте дисковый массив уровня 5
|
||||||
mdadm --create --verbose /dev/md0 --level=5 --raid-devices=3 /dev/sdb /dev/sdc /dev/sdd
|
mdadm --create --verbose /dev/md0 --level=5 --raid-devices=3 /dev/sdb /dev/sdc /dev/sdd
|
||||||

|

|
||||||

|

|
||||||
## • Имя устройства – md0, конфигурация массива размещается в файле /etc/mdadm.conf
|
## • Имя устройства – md0, конфигурация массива размещается в файле /etc/mdadm.conf
|
||||||
mdadm --detail --scan >> /etc/mdadm.conf
|
mdadm --detail --scan >> /etc/mdadm.conf
|
||||||
## • Обеспечьте автоматическое монтирование в папку /raid
|
## • Обеспечьте автоматическое монтирование в папку /raid
|
||||||
Добавляем в /etc/fstab:
|
Добавляем в /etc/fstab:
|
||||||
nano /etc/fstab
|
nano /etc/fstab
|
||||||
/dev/md0 /raid ext4 defaults 0 0
|
/dev/md0 /raid ext4 defaults 0 0
|
||||||

|

|
||||||
## • Создайте раздел, отформатируйте раздел, в качестве файловой системы используйте ext4
|
## • Создайте раздел, отформатируйте раздел, в качестве файловой системы используйте ext4
|
||||||
mkfs.ext4 /dev/md0
|
mkfs.ext4 /dev/md0
|
||||||

|

|
||||||
## • Создаем точку монтирования и примонтируемся
|
## • Создаем точку монтирования и примонтируемся
|
||||||
mkdir -p /raid
|
mkdir -p /raid
|
||||||
mount -a
|
mount -a
|
||||||

|

|
||||||
## 3. Настройте сервер сетевой файловой системы(nfs) на HQ-SRV
|
## 3. Настройте сервер сетевой файловой системы(nfs) на HQ-SRV
|
||||||
### Настройка проивзодится на HQ-SRV:
|
### Настройка проивзодится на HQ-SRV:
|
||||||
## • в качестве папки общего доступа выберите /raid/nfs, доступ для чтения и записи для всей сети в сторону HQ-CLI
|
## • в качестве папки общего доступа выберите /raid/nfs, доступ для чтения и записи для всей сети в сторону HQ-CLI
|
||||||
## • Создаем папку для NFS
|
## • Создаем папку для NFS
|
||||||
mkdir -p /raid/nfs
|
mkdir -p /raid/nfs
|
||||||
chmod 777 /raid/nfs
|
chmod 777 /raid/nfs
|
||||||

|

|
||||||
## Настройка экспорта
|
## Настройка экспорта
|
||||||
Добавляем в /etc/exports:
|
Добавляем в /etc/exports:
|
||||||
nano /etc/exports
|
nano /etc/exports
|
||||||
/raid/nfs 192.168.0.32/27(rw,sync,no_root_squash,no_all_squash,subtree_check)
|
/raid/nfs 192.168.0.32/27(rw,sync,no_root_squash,no_all_squash,subtree_check)
|
||||||

|

|
||||||
## Применяем изменения и перезагружаем службу
|
## Применяем изменения и перезагружаем службу
|
||||||
exportfs -rav
|
exportfs -rav
|
||||||
systemctl restart nfs-server
|
systemctl restart nfs-server
|
||||||
@@ -469,11 +468,11 @@
|
|||||||
Добавляем в /etc/fstab:
|
Добавляем в /etc/fstab:
|
||||||
nano /etc/fstab
|
nano /etc/fstab
|
||||||
hq-srv:/raid/nfs /mnt/nfs nfs defaults 0 0
|
hq-srv:/raid/nfs /mnt/nfs nfs defaults 0 0
|
||||||

|

|
||||||
## Создаем точку монтирования и примонтируемся
|
## Создаем точку монтирования и примонтируемся
|
||||||
mkdir -p /mnt/nfs
|
mkdir -p /mnt/nfs
|
||||||
mount -a
|
mount -a
|
||||||

|

|
||||||
## Проверка монтирования
|
## Проверка монтирования
|
||||||
После этого при создании файла на клиенте, он должен появляться и на сервере
|
После этого при создании файла на клиенте, он должен появляться и на сервере
|
||||||
• Основные параметры сервера отметьте в отчёте
|
• Основные параметры сервера отметьте в отчёте
|
||||||
@@ -484,7 +483,7 @@
|
|||||||
Вносим изменения в файл конфигурации:
|
Вносим изменения в файл конфигурации:
|
||||||
Добавляем сети, которые необходимы и выставляем stratum 5
|
Добавляем сети, которые необходимы и выставляем stratum 5
|
||||||
nano /etc/chrony.conf
|
nano /etc/chrony.conf
|
||||||

|

|
||||||
Переводим службу в автозапуск и запускаем:
|
Переводим службу в автозапуск и запускаем:
|
||||||
systemctl enable --now chronyd
|
systemctl enable --now chronyd
|
||||||
## • В качестве клиентов ntp настройте: HQ-SRV, HQ-CLI, BR-RTR, BR-SRV.
|
## • В качестве клиентов ntp настройте: HQ-SRV, HQ-CLI, BR-RTR, BR-SRV.
|
||||||
@@ -499,21 +498,21 @@
|
|||||||
Вносим изменения в файл конфигурации:
|
Вносим изменения в файл конфигурации:
|
||||||
Комментируем/удаляем строки, где указаны ntp сервера и добавляем наш сервер 172.16.1.14
|
Комментируем/удаляем строки, где указаны ntp сервера и добавляем наш сервер 172.16.1.14
|
||||||
nano /etc/chrony.conf
|
nano /etc/chrony.conf
|
||||||

|

|
||||||
Переводим службу в автозапуск и запускаем:
|
Переводим службу в автозапуск и запускаем:
|
||||||
systemctl enable --now chronyd
|
systemctl enable --now chronyd
|
||||||
Проевряем настройку командой chronyc sources -v, должен отобразиться наш сервер:
|
Проевряем настройку командой chronyc sources -v, должен отобразиться наш сервер:
|
||||||

|

|
||||||
Не паникуем, может сразу не появится, рестартим сервис несколько раз командой systemctl restart chronyd
|
Не паникуем, может сразу не появится, рестартим сервис несколько раз командой systemctl restart chronyd
|
||||||
### Настройка проивзодится на HQ-SRV:
|
### Настройка проивзодится на HQ-SRV:
|
||||||
Вносим изменения в файл конфигурации:
|
Вносим изменения в файл конфигурации:
|
||||||
Комментируем/удаляем строки, где указаны ntp сервера и добавляем наш сервер 172.16.1.14
|
Комментируем/удаляем строки, где указаны ntp сервера и добавляем наш сервер 172.16.1.14
|
||||||
nano /etc/chrony.conf
|
nano /etc/chrony.conf
|
||||||

|

|
||||||
Переводим службу в автозапуск и запускаем:
|
Переводим службу в автозапуск и запускаем:
|
||||||
systemctl enable --now chronyd
|
systemctl enable --now chronyd
|
||||||
Проевряем настройку командой chronyc sources, должен отобразиться наш сервер:
|
Проевряем настройку командой chronyc sources, должен отобразиться наш сервер:
|
||||||

|

|
||||||
Не паникуем, может сразу не появится рестартим сервис несколько раз командой systemctl restart chronyd
|
Не паникуем, может сразу не появится рестартим сервис несколько раз командой systemctl restart chronyd
|
||||||
### Настройка проивзодится на BR-RTR:
|
### Настройка проивзодится на BR-RTR:
|
||||||
en
|
en
|
||||||
@@ -525,11 +524,11 @@
|
|||||||
Вносим изменения в файл конфигурации:
|
Вносим изменения в файл конфигурации:
|
||||||
Комментируем/удаляем строки, где указаны ntp сервера и добавляем наш сервер 172.16.2.14
|
Комментируем/удаляем строки, где указаны ntp сервера и добавляем наш сервер 172.16.2.14
|
||||||
nano /etc/chrony.conf
|
nano /etc/chrony.conf
|
||||||

|

|
||||||
Переводим службу в автозапуск и запускаем:
|
Переводим службу в автозапуск и запускаем:
|
||||||
systemctl enable --now chronyd
|
systemctl enable --now chronyd
|
||||||
Проевряем настройку командой chronyc sources, должен отобразиться наш сервер:
|
Проевряем настройку командой chronyc sources, должен отобразиться наш сервер:
|
||||||

|

|
||||||
Не паникуем, может сразу не появится рестартим сервис несколько раз командой systemctl restart chronyd
|
Не паникуем, может сразу не появится рестартим сервис несколько раз командой systemctl restart chronyd
|
||||||
## 5. Сконфигурируйте ansible на сервере BR-SRV
|
## 5. Сконфигурируйте ansible на сервере BR-SRV
|
||||||
### Настройка подключения по ssh BR-RTR | HQ-RTR
|
### Настройка подключения по ssh BR-RTR | HQ-RTR
|
||||||
@@ -598,12 +597,12 @@
|
|||||||
ansible_password=P@ssw0rd
|
ansible_password=P@ssw0rd
|
||||||
ansible_connection=network_cli
|
ansible_connection=network_cli
|
||||||
ansible_network_os=ios
|
ansible_network_os=ios
|
||||||

|

|
||||||
### • Все указанные машины должны без предупреждений и ошибок отвечать pong на команду ping в ansible посланную с BR-SRV
|
### • Все указанные машины должны без предупреждений и ошибок отвечать pong на команду ping в ansible посланную с BR-SRV
|
||||||
Пингуем удаленные хосты с помощью Ansible находясь в пользователе sshuser:
|
Пингуем удаленные хосты с помощью Ansible находясь в пользователе sshuser:
|
||||||
ansible -i /etc/ansible/inventory.ini all -m ping
|
ansible -i /etc/ansible/inventory.ini all -m ping
|
||||||
В результате под каждым хостом должно быть написано "ping": "pong".
|
В результате под каждым хостом должно быть написано "ping": "pong".
|
||||||

|

|
||||||
## 6. Развертывание приложений в Docker на сервере BR-SRV.
|
## 6. Развертывание приложений в Docker на сервере BR-SRV.
|
||||||
Установка необходимых пакетов:
|
Установка необходимых пакетов:
|
||||||
dnf install docker-ce docker-ce-cli docker-compose -y
|
dnf install docker-ce docker-ce-cli docker-compose -y
|
||||||
@@ -613,14 +612,14 @@
|
|||||||
### • Средствами docker должен создаваться стек контейнеров с веб приложением и базой данных
|
### • Средствами docker должен создаваться стек контейнеров с веб приложением и базой данных
|
||||||
• Используйте образы site_latest и mariadb_latest располагающиеся в
|
• Используйте образы site_latest и mariadb_latest располагающиеся в
|
||||||
директории docker в образе Additional.iso
|
директории docker в образе Additional.iso
|
||||||

|

|
||||||
• Основной контейнер testapp должен называться testapp
|
• Основной контейнер testapp должен называться testapp
|
||||||
• Контейнер с базой данных должен называться db
|
• Контейнер с базой данных должен называться db
|
||||||
### • Импортируйте образы в docker, укажите в yaml файле параметры подключения к СУБД, имя БД - testdb, пользователь testс паролем P@ssw0rd, порт приложения 8080, при необходимости другие параметры
|
### • Импортируйте образы в docker, укажите в yaml файле параметры подключения к СУБД, имя БД - testdb, пользователь testс паролем P@ssw0rd, порт приложения 8080, при необходимости другие параметры
|
||||||
docker load < /mnt/docker/docker/mariadb_latest.tar
|
docker load < /mnt/docker/docker/mariadb_latest.tar
|
||||||
docker load < /mnt/docker/docker/site_latest.tar
|
docker load < /mnt/docker/docker/site_latest.tar
|
||||||
Для написания web.yaml в качестве подсказки можно использовать файл readmetxt, который лежит в месте образов:
|
Для написания web.yaml в качестве подсказки можно использовать файл readmetxt, который лежит в месте образов:
|
||||||

|

|
||||||
### Готовим наш yaml файл
|
### Готовим наш yaml файл
|
||||||
nano web.yaml
|
nano web.yaml
|
||||||
services:
|
services:
|
||||||
@@ -655,11 +654,11 @@
|
|||||||
networks:
|
networks:
|
||||||
- testapp-net
|
- testapp-net
|
||||||
Конфигурационный файл:
|
Конфигурационный файл:
|
||||||

|

|
||||||
### Поднимаем стек контейнеров с помощью команды:
|
### Поднимаем стек контейнеров с помощью команды:
|
||||||
docker compose -f web.yml up -d
|
docker compose -f web.yml up -d
|
||||||
• Приложение должно быть доступно для внешних подключений через порт 8080
|
• Приложение должно быть доступно для внешних подключений через порт 8080
|
||||||

|

|
||||||
## 7. Разверните веб приложениена сервере HQ-SRV:
|
## 7. Разверните веб приложениена сервере HQ-SRV:
|
||||||
### Подготовка
|
### Подготовка
|
||||||
Переводим selinux в состояние Permissive:
|
Переводим selinux в состояние Permissive:
|
||||||
@@ -681,13 +680,13 @@
|
|||||||
Require all granted
|
Require all granted
|
||||||
</Directory>
|
</Directory>
|
||||||
</VirtualHost>
|
</VirtualHost>
|
||||||

|

|
||||||
## • В качестве системы управления базами данных используйте mariadb
|
## • В качестве системы управления базами данных используйте mariadb
|
||||||
systemctl enable --now mariadb
|
systemctl enable --now mariadb
|
||||||
mysql_secure_installation
|
mysql_secure_installation
|
||||||
Там везде вводим y, задаем пароль для пользователя root - P@ssw0rd
|
Там везде вводим y, задаем пароль для пользователя root - P@ssw0rd
|
||||||
## • Файлы веб приложения и дамп базы данных находятся в директории web образа Additional.iso
|
## • Файлы веб приложения и дамп базы данных находятся в директории web образа Additional.iso
|
||||||

|

|
||||||
## • Выполните импорт схемы и данных из файла dump.sql в базу данных webdb
|
## • Выполните импорт схемы и данных из файла dump.sql в базу данных webdb
|
||||||
Для начала создадим базу данных:
|
Для начала создадим базу данных:
|
||||||
mariadb -u root -p
|
mariadb -u root -p
|
||||||
@@ -700,13 +699,13 @@
|
|||||||
Делаем импорт базы данных:
|
Делаем импорт базы данных:
|
||||||
mariadb -u root -p webdb < ./dump.sql
|
mariadb -u root -p webdb < ./dump.sql
|
||||||
## • Файлы index.php и директорию images скопируйте в каталог веб сервера apache
|
## • Файлы index.php и директорию images скопируйте в каталог веб сервера apache
|
||||||

|

|
||||||
## • В файле index.php укажите правильные учётные данные для подключения к БД
|
## • В файле index.php укажите правильные учётные данные для подключения к БД
|
||||||

|

|
||||||
## • Запустите веб сервер и убедитесь в работоспособности приложения
|
## • Запустите веб сервер и убедитесь в работоспособности приложения
|
||||||
Перезапускаем веб-сервер:
|
Перезапускаем веб-сервер:
|
||||||
systemctl restart httpd
|
systemctl restart httpd
|
||||||

|

|
||||||
## • Основные параметры отметьте в отчёте
|
## • Основные параметры отметьте в отчёте
|
||||||
• На главной странице должен отражаться номер рабочего места в виде арабской цифры, других подписей делать не надо
|
• На главной странице должен отражаться номер рабочего места в виде арабской цифры, других подписей делать не надо
|
||||||
• Основные параметры отметьте в отчёте
|
• Основные параметры отметьте в отчёте
|
||||||
@@ -732,7 +731,7 @@
|
|||||||
dnf install nginx -y
|
dnf install nginx -y
|
||||||
systemctl enable --now nginx
|
systemctl enable --now nginx
|
||||||
Перед настройкой конфига укажем значение server_names_hash_bucket_size 64
|
Перед настройкой конфига укажем значение server_names_hash_bucket_size 64
|
||||||

|

|
||||||
### • При обращении по доменному имени web.au-team.irpo у клиента должно открываться веб приложение на HQ-SRV
|
### • При обращении по доменному имени web.au-team.irpo у клиента должно открываться веб приложение на HQ-SRV
|
||||||
nano /etc/nginx/nginx.conf
|
nano /etc/nginx/nginx.conf
|
||||||
server {
|
server {
|
||||||
@@ -747,7 +746,7 @@
|
|||||||
auth_basic_user_file /etc/nginx/.htpasswd;
|
auth_basic_user_file /etc/nginx/.htpasswd;
|
||||||
}
|
}
|
||||||
}
|
}
|
||||||

|

|
||||||
### • При обращении по доменному имени docker.au-team.irpo клиента должно открываться веб приложение testapp
|
### • При обращении по доменному имени docker.au-team.irpo клиента должно открываться веб приложение testapp
|
||||||
nano /etc/nginx/nginx.conf
|
nano /etc/nginx/nginx.conf
|
||||||
server {
|
server {
|
||||||
@@ -760,7 +759,7 @@
|
|||||||
proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
|
proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
|
||||||
}
|
}
|
||||||
}
|
}
|
||||||

|

|
||||||
## 10. На маршрутизаторе ISP настройте web-based аутентификацию:
|
## 10. На маршрутизаторе ISP настройте web-based аутентификацию:
|
||||||
### • При обращении к сайту web.au-team.irpo клиенту должно быть предложено ввести аутентификационные данные
|
### • При обращении к сайту web.au-team.irpo клиенту должно быть предложено ввести аутентификационные данные
|
||||||
• В качестве логина для аутентификации выберите WEBс паролем P@ssw0rd
|
• В качестве логина для аутентификации выберите WEBс паролем P@ssw0rd
|
||||||
@@ -790,10 +789,10 @@
|
|||||||
done
|
done
|
||||||
chmod +x import/sh
|
chmod +x import/sh
|
||||||
./import.sh
|
./import.sh
|
||||||

|

|
||||||
### • Убедитесь, что импортированные пользователи могут войти на машину HQ-CLI
|
### • Убедитесь, что импортированные пользователи могут войти на машину HQ-CLI
|
||||||
Вход выполнен для пользователя выполнен
|
Вход выполнен для пользователя выполнен
|
||||||

|

|
||||||
## 2. Выполните настройку центра сертификации на базе HQ-SRV:
|
## 2. Выполните настройку центра сертификации на базе HQ-SRV:
|
||||||
### • Необходимо использовать отечественные алгоритмы шифрования
|
### • Необходимо использовать отечественные алгоритмы шифрования
|
||||||
### • Сертификаты выдаются на 30дней
|
### • Сертификаты выдаются на 30дней
|
||||||
@@ -833,7 +832,7 @@ https://docker.au-team.irpo у браузера клиента не должно
|
|||||||
Order allow, deny
|
Order allow, deny
|
||||||
Allow all
|
Allow all
|
||||||
<Location>
|
<Location>
|
||||||

|

|
||||||
systemctl restart cupsd
|
systemctl restart cupsd
|
||||||
|
|
||||||
### • На клиенте HQ-CLI подключите виртуальный принтер как принтер по умолчанию.
|
### • На клиенте HQ-CLI подключите виртуальный принтер как принтер по умолчанию.
|
||||||
@@ -842,17 +841,17 @@ https://docker.au-team.irpo у браузера клиента не должно
|
|||||||
setenforce 0
|
setenforce 0
|
||||||
getenforce
|
getenforce
|
||||||
Далее заходим по админской учеткой student:student, должен появится принтер
|
Далее заходим по админской учеткой student:student, должен появится принтер
|
||||||

|

|
||||||
|
|
||||||

|

|
||||||
|
|
||||||

|

|
||||||
|
|
||||||

|

|
||||||
|
|
||||||

|

|
||||||
|
|
||||||

|

|
||||||
## 6. Реализуйте логирование при помощи rsyslog на устройствах HQ-RTR, BR-RTR, BR-SRV:
|
## 6. Реализуйте логирование при помощи rsyslog на устройствах HQ-RTR, BR-RTR, BR-SRV:
|
||||||
### • Сервер сбора логов расположен на HQ-SRV, убедитесь, что сервер не
|
### • Сервер сбора логов расположен на HQ-SRV, убедитесь, что сервер не
|
||||||
является клиентом самому себе
|
является клиентом самому себе
|
||||||
|
|||||||
Reference in New Issue
Block a user