Подготовка к установке системы
В данном разделе описаны подготовительные действия, которые необходимо выполнить перед установкой системы.
Подготовка состоит из следующих этапов:
-
Настройка доступа к кластеру Kubernetes.
-
Настройка сетевого доступа к кластеру системы.
-
Настройка SSH-доступа к worker-узлам кластера.
-
Применение дополнительных настроек, если узлы кластера работают под управлением ОС Альт Сервер или Альт СП Сервер.
-
Скачивание архива с файлами для установки и проверка его целостности.
Настройка доступа к кластеру Kubernetes
До начала установки должен быть развернут кластер Kubernetes.
Установка может выполняться как с одного из master-узлов кластера Kubernetes, так и с машины администратора кластера. На машине, с которой будет выполняться установка, должны быть соблюдены следующие требования:
-
Установлена утилита ansible.
-
В системных переменных окружения указан путь к файлу
kubeconfig.-
Linux
-
Windows
В ОС Linux путь к файлу
kubeconfigпо умолчанию —$HOME/.kube/config. Вы можете изменить его с помощью переменной окруженияKUBECONFIG:export KUBECONFIG=<path_to_confg>Здесь:
-
<path_to_config>— путь к файлуkubeconfig.
В ОС Windows путь к файлу
kubeconfigпо умолчанию —$%USERPROFILE%\.kube\config. Вы можете изменить его с помощью переменной окруженияKUBECONFIG:$env:KUBECONFIG = <path_to_confg>Здесь:
-
<path_to_config>— путь к файлуkubeconfig.
-
Проверить доступ к кластеру можно, выполнив следующую команду:
kubectl get nodes
Если доступ к кластеру есть, отобразится список узлов кластера, например:
NAME STATUS ROLES AGE VERSION INTERNAL-IP EXTERNAL-IP OS-IMAGE KERNEL-VERSION CONTAINER-RUNTIME system-master01.k8s.dev.rvision.local Ready control-plane 140d v1.26.3 10.99.57.12 <none> RED OS MUROM (7.3.2) 5.15.131-1.el7.3.x86_64 containerd://1.7.0 system-worker01.k8s.dev.rvision.local Ready <none> 140d v1.26.3 10.99.57.13 <none> RED OS MUROM (7.3.2) 5.15.131-1.el7.3.x86_64 containerd://1.7.0 system-worker02.k8s.dev.rvision.local Ready <none> 140d v1.26.3 10.99.57.11 <none> RED OS MUROM (7.3.2) 5.15.131-1.el7.3.x86_64 containerd://1.7.0 system-worker03.k8s.dev.rvision.local Ready <none> 140d v1.26.3 10.99.57.10 <none> RED OS MUROM (7.3.2) 5.15.131-1.el7.3.x86_64 containerd://1.7.0
Настройка доменного имени и сетевого адреса
|
Если система будет установлена в кластер из одного узла, пропустите данный этап. На этапе Web access установки системы укажите полное доменное имя (FQDN) виртуальной машины, на которой функционирует кластер. Если система будет установлена в кластер из нескольких узлов, в качестве доменного имени нельзя использовать FQDN master-узла кластера. Используйте доменное имя, не занятое ни одним другим сервисом. |
Cоздайте A-запись на DNS-сервере вашей организации. Она позволит ассоциировать доменное имя, по которому будет доступна система, с IP-адресом, зарезервированным для использования кластером системы. Запросы, поступающие на этот адрес, будут перенаправляться на сервисы кластера балансировщиком MetalLB и контроллером ingress-nginx, входящими в пакет установки системы.
|
Доменное имя должно удовлетворять следующим требованиям:
Пример допустимого доменного имени: |
|
Чтобы настроить сетевой доступ к кластеру системы:
-
Запросите у сетевых инженеров IP-адрес, который будет зарезервирован для использования кластером системы. Убедитесь, что этот адрес доступен для обращений из внешних сетей.
-
Добавьте исключение в диспетчере DHCP, чтобы адрес не мог быть динамически назначен другим хостам в сети:
-
Откройте диспетчер DHCP. Например, это можно сделать, выполнив команду:
dhcpmgmt.msc -
Выберите область адресов, соответствующих подсети, в которую входит зарезервированный адрес.
-
Откройте контекстное меню пула адресов области и выберите опцию Диапазон исключения.
-
В открывшемся окне укажите зарезервированный адрес и нажмите на кнопку Добавить.
-
-
Добавьте A-запись в диспетчере DNS:
-
Откройте диспетчер DNS. Например, это можно сделать, выполнив команду:
dnsmgmt.msc -
Выберите необходимую зону прямого просмотра.
-
Откройте контекстное меню зоны и выберите опцию Создать узел (А или АААА).
-
В открывшемся окне укажите доменное имя и IP-адрес, который будет с ним ассоциирован.
-
Чтобы обеспечить возможность преобразования IP-адреса в доменное имя, установите флажок Создать соответствующую PTR-запись.
-
Нажмите на кнопку Добавить узел.
-
-
Если требуется, добавьте CNAME-запись для обращения к специфическим службам кластера, например:
grafana.rvision.company.local
Чтобы добавить CNAME-запись:
-
Откройте контекстное меню той же зоны, в которой создана A-запись, и выберите опцию Создать псевдоним (CNAME).
-
В открывшемся окне укажите псевдоним и доменное имя системы.
-
При необходимости измените время существования (TTL) псевдонима.
-
-
Убедитесь, что преобразование доменного имени в IP-адрес и обратно выполняется успешно. Для этого:
-
Откройте терминал на вашем сервере.
-
Выполните команды:
nslookup <system_domain_name> nslookup <system_ip>Здесь:
-
<system_domain_name>— доменное имя системы, используемое в A-записи. -
<system_ip>— IP-адрес системы, используемый в A-записи.
Обе эти команды должны возвращать доменное имя и IP-адрес системы. Если преобразование доменного имени в IP-адрес или обратно не выполняется, проверьте корректность A-записи, повторно выполнив шаги инструкции.
-
-
Настройка SSH-доступа к worker-узлам кластера
Для загрузки образов контейнеров на worker-узлы установщик использует Ansible. Необходимо настроить SSH-доступ с машины установщика до worker-узлов под единой учетной записью. Поддерживается доступ по ключам или паролю.
|
Если на master-узле кластера установлена ОС Альт Сервер или Альт СП Сервер и планируется доступ по паролю, установите утилиту sshpass на master-узле:
|
Для настройки SSH-доступа выполните следующие действия на каждом worker-узле кластера:
-
Пользователю, от имени которого будет установлен кластер, необходимо выдать права суперпользователя. Для этого добавьте следующую строку в файл
/etc/sudoers:<user> ALL=(ALL:ALL) NOPASSWD: ALLЗдесь:
-
<user>— пользователь, от имени которого будет установлен кластер.
-
-
Настройте SSH-доступ по паролю или по ключу:
-
Если планируется доступ по паролю:
-
Установите пакет sshpass:
-
РЕД ОС
-
Альт Сервер, Альт СП Сервер, Astra Linux
sudo dnf install sshpasssudo apt-get install sshpass -
-
Проверьте возможность подключения к узлу по SSH:
ssh <user>@<fqdn>Здесь:
-
<user>— пользователь, от имени которого будет установлен кластер. -
<fqdn>— полное доменное имя (FQDN) текущего узла.Чтобы узнать FQDN текущего узла, выполните команду:
hostname -f
-
-
-
Если планируется доступ по ключу:
-
Проверьте возможность подключения к узлу по SSH:
ssh <user>@<fqdn>Здесь:
-
<user>— пользователь, от имени которого будет установлен кластер. -
<fqdn>— полное доменное имя (FQDN) текущего узла.Чтобы узнать FQDN текущего узла, выполните команду:
hostname -f
-
-
Если подключение по SSH-ключу не настроено, сгенерируйте ключи и добавьте открытый ключ на узел:
ssh-keygen ssh-copy-id <user>@<fqdn>Здесь:
-
<user>— пользователь, от имени которого будет установлен кластер. -
<fqdn>— полное доменное имя (FQDN) текущего узла.
-
-
-
Дополнительные настройки для Альт Сервер и Альт СП Сервер
Если узлы кластера работают под управлением ОС Альт Сервер или Альт СП Сервер, выполните следующие действия на master-узле:
-
Установите коллекцию ansible.posix:
ansible-galaxy collection install ansible.posix -
Скачайте пакеты libnewt52 и newt52 из репозитория Альт:
wget http://ftp.altlinux.org/pub/distributions/ALTLinux/Sisyphus/x86_64/RPMS.classic/libnewt52-0.52.24-alt1.x86_64.rpm wget http://ftp.altlinux.org/pub/distributions/ALTLinux/Sisyphus/x86_64/RPMS.classic/newt52-0.52.24-alt1.x86_64.rpm -
Установите пакеты libnewt52 и newt52:
rpm -i libnewt52-0.52.24-alt1.x86_64.rpm rpm -i newt52-0.52.24-alt1.x86_64.rpm -
Расширьте системную переменную
PATH, чтобы утилиты, расположенные в каталоге<setup_dir>/r-vision/common/bin, были доступны из любой директории без указания полного пути:export PATH="$PATH:<setup_dir>/r-vision/common/bin"Здесь:
-
<setup_dir>— каталог, в который будет установлена система. По умолчанию:/opt.
-
Получение дистрибутива
Скачайте архив с установочными файлами evo.platform_<version>.run и проверьте его контрольную сумму. Ссылка на дистрибутив предоставляется по запросу в службу поддержки по адресу support@rvision.ru.
# Получение дистрибутива.
curl -O https://files.rvision.ru/platform/<random_part>/evo.platform_<version>.run
# Получение контрольной суммы.
curl -O https://files.rvision.ru/platform/<random_part>/evo.platform_<version>.run.sha256
# Проверка контрольной суммы.
sha256sum -c evo.platform_<version>.run.sha256
# При успешной проверке контрольной суммы будет выведено следующее сообщение.
evo.platform_<version>.run: OK
# При нарушении контрольной суммы будет выведено следующее сообщение.
evo.platform_<version>.run: FAILED
|
При выявлении нарушения контрольной суммы выполнять установку недопустимо. Необходимо убедиться, что скачивание run-файла дистрибутива было полностью завершено, и повторно проверить контрольную сумму. При подтверждении нарушения контрольной суммы следует сообщить в техническую поддержку по адресу support@rvision.ru. |
Была ли полезна эта страница?