Примечание.
Для доступа к этой странице требуется авторизация. Вы можете попробовать войти или изменить каталоги.
Для доступа к этой странице требуется авторизация. Вы можете попробовать изменить каталоги.
В этой статье описывается, как развернуть виртуальные машины, настроить виртуальные машины и установить кластер GlusterFS. Кластер GlusterFS используется для хранения общих данных высокодоступной системы SAP. В этом руководстве описывается настройка кластера GlusterFS, который используется двумя системами SAP: NW1 и NW2. Имена ресурсов (например, виртуальных машин, виртуальных сетей) в примере предполагают, что вы использовали шаблон файлового сервера SAP с префиксом glustресурса.
Как описано в жизненном цикле хранения Red Hat Gluster, Red Hat Gluster Storage достигает конца жизни в конце 2024 года. Конфигурация поддерживается для SAP на Azure до конца жизненного цикла. GlusterFS не следует использовать для новых развертываний. Мы рекомендуем развернуть общие каталоги SAP на NFS в Azure Files или томах Azure NetApp Files, как описано в HA для SAP NW в RHEL с NFS на Azure Files. См. также HA для SAP NW в RHEL с Azure NetApp Files.
Прежде всего прочитайте следующие примечания и документы SAP:
Заметка SAP 1928533, которая содержит:
- Список размеров Azure виртуальных машин, поддерживаемых для развертывания программного обеспечения SAP
- Важные сведения о емкости для размеров виртуальных машин Azure
- сведения о поддерживаемом программном обеспечении SAP и сочетаниях операционных систем и баз данных;
- Требуемая версия ядра SAP для Windows и Linux в Microsoft Azure
SAP-заметка 2015553 содержит предварительные условия для развертывания ПО SAP с поддержкой SAP в Azure.
Sap Note 2002167 имеет рекомендуемые параметры ОС для Red Hat Enterprise Linux
Примечание SAP 2009879 содержит SAP HANA рекомендации по Red Hat Enterprise Linux
Примечание SAP 2178632 содержит подробные сведения обо всех метриках мониторинга, сообщаемых для SAP в Azure.
Примечание SAP 2191498 имеет необходимую версию агента узла SAP для Linux в Azure.
Примечание SAP 2243692 содержит сведения о лицензировании SAP в Linux в Azure.
Примечание SAP 1999351 содержит дополнительные сведения об устранении неполадок для расширения расширенного мониторинга Azure для SAP.
вики-сайт сообщества SAP, содержащий все необходимые примечания к SAP для Linux;
Планирование и реализация виртуальных машин Azure для SAP на Linux
Развертывание Azure Virtual Machines для SAP на Linux (эта статья)
развертывание СУБД Azure Virtual Machines для SAP в Linux
Общая документация по RHEL
Специфическая документация Azure по RHEL
Обзор
Чтобы добиться высокого уровня доступности, SAP NetWeaver необходимо общее хранилище. GlusterFS выполняется в отдельном кластере и поддерживает доступ к нескольким системам SAP.
Предпосылки
В этом примере ресурсы были развернуты вручную с помощью портала Azure.
В этом документе предполагается, что развернуты следующие компоненты:
- Ранее группа ресурсов.
- Azure Virtual Network и подсеть.
При развертывании виртуальных машин для GlusterFS выберите подходящий образ RHEL, поддерживающий хранилище Gluster. Вы можете развернуть виртуальную машину в любом из вариантов доступности — набор масштабирования, зону доступности или группу доступности.
Настройка GlusterFS
Следующие элементы префиксируются с помощью [A] — применимо ко всем узлам, [1] — применимо только к узлу 1, [2] — применимо только к узлу 2, [3] — применимо только к узлу 3.
[A] Настройте разрешение имен хостов.
Вы можете использовать DNS-сервер или изменить
/etc/hostsна всех узлах. В этом примере показано, как использовать файл/etc/hosts. Замените IP-адрес и имя узла в следующих командах:sudo vi /etc/hostsВставьте следующие строки в
/etc/hosts. Измените IP-адрес и имя узла в соответствии с вашей средой:# IP addresses of the Gluster nodes 10.0.0.40 glust-0 10.0.0.41 glust-1 10.0.0.42 glust-2[A] Регистрация
Зарегистрируйте виртуальные машины и подключите его к пулу, который содержит репозитории для RHEL 7 и GlusterFS:
sudo subscription-manager register sudo subscription-manager attach --pool=<pool id>[A] Включение репозиториев GlusterFS
Чтобы установить необходимые пакеты, включите следующие репозитории:
sudo subscription-manager repos --disable "*" sudo subscription-manager repos --enable=rhel-7-server-rpms sudo subscription-manager repos --enable=rh-gluster-3-for-rhel-7-server-rpms[A] Установка пакетов GlusterFS
Установите эти пакеты на всех узлах GlusterFS:
sudo yum -y install redhat-storage-serverПосле установки перезапустите узлы.
[A] Изменение брандмауэра
Добавьте правила брандмауэра, чтобы разрешить трафик клиента узлам GlusterFS:
# list the available zones firewall-cmd --get-active-zones sudo firewall-cmd --zone=public --add-service=glusterfs --permanent sudo firewall-cmd --zone=public --add-service=glusterfs[A] Включение и запуск службы GlusterFS
Запустите службу GlusterFS на всех узлах:
sudo systemctl start glusterd sudo systemctl enable glusterd[1] Создание GluserFS
Создайте кластер GlusterFS, выполнив следующие команды:
sudo gluster peer probe glust-1 sudo gluster peer probe glust-2Проверьте состояние однорангового узла GlusterFS:
sudo gluster peer status# Number of Peers: 2 # # Hostname: glust-1 # Uuid: 10d43840-fee4-4120-bf5a-de9c393964cd # State: Accepted peer request (Connected) # # Hostname: glust-2 # Uuid: 9e340385-12fe-495e-ab0f-4f851b588cba # State: Accepted peer request (Connected)[2] Проверка состояния однорангового узла
Проверьте состояние однорангового узла на втором узле:
sudo gluster peer status# Number of Peers: 2 # # Hostname: glust-0 # Uuid: 6bc6927b-7ee2-461b-ad04-da123124d6bd # State: Peer in Cluster (Connected) # # Hostname: glust-2 # Uuid: 9e340385-12fe-495e-ab0f-4f851b588cba # State: Peer in Cluster (Connected)[3] Проверка статуса однорангового узла
Проверьте статус соединения на третьем узле:
sudo gluster peer status# Number of Peers: 2 # # Hostname: glust-0 # Uuid: 6bc6927b-7ee2-461b-ad04-da123124d6bd # State: Peer in Cluster (Connected) # # Hostname: glust-1 # Uuid: 10d43840-fee4-4120-bf5a-de9c393964cd # State: Peer in Cluster (Connected)[A] Создание LVM
В этом примере GlusterFS используется для двух систем SAP , NW1 и NW2. Чтобы создать конфигурации LVM для этих систем SAP, используйте приведенные ниже команды.
Используйте следующие команды для NW1:
sudo pvcreate --dataalignment 1024K /dev/disk/azure/scsi1/lun0 sudo pvscan sudo vgcreate --physicalextentsize 256K rhgs-NW1 /dev/disk/azure/scsi1/lun0 sudo vgscan sudo lvcreate -l 50%FREE -n rhgs-NW1/sapmnt sudo lvcreate -l 20%FREE -n rhgs-NW1/trans sudo lvcreate -l 10%FREE -n rhgs-NW1/sys sudo lvcreate -l 50%FREE -n rhgs-NW1/ascs sudo lvcreate -l 100%FREE -n rhgs-NW1/aers sudo lvscan sudo mkfs.xfs -f -K -i size=512 -n size=8192 /dev/rhgs-NW1/sapmnt sudo mkfs.xfs -f -K -i size=512 -n size=8192 /dev/rhgs-NW1/trans sudo mkfs.xfs -f -K -i size=512 -n size=8192 /dev/rhgs-NW1/sys sudo mkfs.xfs -f -K -i size=512 -n size=8192 /dev/rhgs-NW1/ascs sudo mkfs.xfs -f -K -i size=512 -n size=8192 /dev/rhgs-NW1/aers sudo mkdir -p /rhs/NW1/sapmnt sudo mkdir -p /rhs/NW1/trans sudo mkdir -p /rhs/NW1/sys sudo mkdir -p /rhs/NW1/ascs sudo mkdir -p /rhs/NW1/aers sudo chattr +i /rhs/NW1/sapmnt sudo chattr +i /rhs/NW1/trans sudo chattr +i /rhs/NW1/sys sudo chattr +i /rhs/NW1/ascs sudo chattr +i /rhs/NW1/aers echo -e "/dev/rhgs-NW1/sapmnt\t/rhs/NW1/sapmnt\txfs\tdefaults,inode64,nobarrier,noatime,nouuid 0 2" | sudo tee -a /etc/fstab echo -e "/dev/rhgs-NW1/trans\t/rhs/NW1/trans\txfs\tdefaults,inode64,nobarrier,noatime,nouuid 0 2" | sudo tee -a /etc/fstab echo -e "/dev/rhgs-NW1/sys\t/rhs/NW1/sys\txfs\tdefaults,inode64,nobarrier,noatime,nouuid 0 2" | sudo tee -a /etc/fstab echo -e "/dev/rhgs-NW1/ascs\t/rhs/NW1/ascs\txfs\tdefaults,inode64,nobarrier,noatime,nouuid 0 2" | sudo tee -a /etc/fstab echo -e "/dev/rhgs-NW1/aers\t/rhs/NW1/aers\txfs\tdefaults,inode64,nobarrier,noatime,nouuid 0 2" | sudo tee -a /etc/fstab sudo mount -aИспользуйте следующие команды для NW2:
sudo pvcreate --dataalignment 1024K /dev/disk/azure/scsi1/lun1 sudo pvscan sudo vgcreate --physicalextentsize 256K rhgs-NW2 /dev/disk/azure/scsi1/lun1 sudo vgscan sudo lvcreate -l 50%FREE -n rhgs-NW2/sapmnt sudo lvcreate -l 20%FREE -n rhgs-NW2/trans sudo lvcreate -l 10%FREE -n rhgs-NW2/sys sudo lvcreate -l 50%FREE -n rhgs-NW2/ascs sudo lvcreate -l 100%FREE -n rhgs-NW2/aers sudo mkfs.xfs -f -K -i size=512 -n size=8192 /dev/rhgs-NW2/sapmnt sudo mkfs.xfs -f -K -i size=512 -n size=8192 /dev/rhgs-NW2/trans sudo mkfs.xfs -f -K -i size=512 -n size=8192 /dev/rhgs-NW2/sys sudo mkfs.xfs -f -K -i size=512 -n size=8192 /dev/rhgs-NW2/ascs sudo mkfs.xfs -f -K -i size=512 -n size=8192 /dev/rhgs-NW2/aers sudo mkdir -p /rhs/NW2/sapmnt sudo mkdir -p /rhs/NW2/trans sudo mkdir -p /rhs/NW2/sys sudo mkdir -p /rhs/NW2/ascs sudo mkdir -p /rhs/NW2/aers sudo chattr +i /rhs/NW2/sapmnt sudo chattr +i /rhs/NW2/trans sudo chattr +i /rhs/NW2/sys sudo chattr +i /rhs/NW2/ascs sudo chattr +i /rhs/NW2/aers sudo lvscan echo -e "/dev/rhgs-NW2/sapmnt\t/rhs/NW2/sapmnt\txfs\tdefaults,inode64,nobarrier,noatime,nouuid 0 2" | sudo tee -a /etc/fstab echo -e "/dev/rhgs-NW2/trans\t/rhs/NW2/trans\txfs\tdefaults,inode64,nobarrier,noatime,nouuid 0 2" | sudo tee -a /etc/fstab echo -e "/dev/rhgs-NW2/sys\t/rhs/NW2/sys\txfs\tdefaults,inode64,nobarrier,noatime,nouuid 0 2" | sudo tee -a /etc/fstab echo -e "/dev/rhgs-NW2/ascs\t/rhs/NW2/ascs\txfs\tdefaults,inode64,nobarrier,noatime,nouuid 0 2" | sudo tee -a /etc/fstab echo -e "/dev/rhgs-NW2/aers\t/rhs/NW2/aers\txfs\tdefaults,inode64,nobarrier,noatime,nouuid 0 2" | sudo tee -a /etc/fstab sudo mount -a[1] Создание распределенного тома
Используйте следующие команды, чтобы создать том GlusterFS для NW1 и запустить его:
sudo gluster vol create NW1-sapmnt replica 3 glust-0:/rhs/NW1/sapmnt glust-1:/rhs/NW1/sapmnt glust-2:/rhs/NW1/sapmnt force sudo gluster vol create NW1-trans replica 3 glust-0:/rhs/NW1/trans glust-1:/rhs/NW1/trans glust-2:/rhs/NW1/trans force sudo gluster vol create NW1-sys replica 3 glust-0:/rhs/NW1/sys glust-1:/rhs/NW1/sys glust-2:/rhs/NW1/sys force sudo gluster vol create NW1-ascs replica 3 glust-0:/rhs/NW1/ascs glust-1:/rhs/NW1/ascs glust-2:/rhs/NW1/ascs force sudo gluster vol create NW1-aers replica 3 glust-0:/rhs/NW1/aers glust-1:/rhs/NW1/aers glust-2:/rhs/NW1/aers force sudo gluster volume start NW1-sapmnt sudo gluster volume start NW1-trans sudo gluster volume start NW1-sys sudo gluster volume start NW1-ascs sudo gluster volume start NW1-aersИспользуйте следующие команды, чтобы создать том GlusterFS для NW2 и запустить его:
sudo gluster vol create NW2-sapmnt replica 3 glust-0:/rhs/NW2/sapmnt glust-1:/rhs/NW2/sapmnt glust-2:/rhs/NW2/sapmnt force sudo gluster vol create NW2-trans replica 3 glust-0:/rhs/NW2/trans glust-1:/rhs/NW2/trans glust-2:/rhs/NW2/trans force sudo gluster vol create NW2-sys replica 3 glust-0:/rhs/NW2/sys glust-1:/rhs/NW2/sys glust-2:/rhs/NW2/sys force sudo gluster vol create NW2-ascs replica 3 glust-0:/rhs/NW2/ascs glust-1:/rhs/NW2/ascs glust-2:/rhs/NW2/ascs force sudo gluster vol create NW2-aers replica 3 glust-0:/rhs/NW2/aers glust-1:/rhs/NW2/aers glust-2:/rhs/NW2/aers force sudo gluster volume start NW2-sapmnt sudo gluster volume start NW2-trans sudo gluster volume start NW2-sys sudo gluster volume start NW2-ascs sudo gluster volume start NW2-aers
Следующие шаги
- Установка SAP ASCS и базы данных
- Планирование и внедрение виртуальных машин Azure для SAP
- Развертывание Azure Virtual Machines для SAP
- развертывание СУБД Azure Virtual Machines для SAP
- Сведения о том, как установить высокий уровень доступности и планирование аварийного восстановления SAP HANA на Azure (крупные экземпляры), см. в статье SAP HANA (крупные экземпляры) с высоким уровнем доступности и аварийного восстановления на Azure.
- Сведения о создании высокого уровня доступности и планировании аварийного восстановления SAP HANA на виртуальных машинах Azure см. в статье Доступность SAP HANA на Azure Virtual Machines (виртуальных машинах)