3.2. 配置和部署 SAP HANA
3.2.1. 配置运行 SAP HANA 所需的 RHEL 设置
使用这个流程为运行 SAP HANA 配置 HA 集群节点。需要在运行 HANA 实例的每个 RHEL 系统上执行这些步骤。
先决条件
- 您以 root 用户身份登录共享存储配置的每个主机。
- 您已准备了 SAP HANA 的安装源。
您已设置了与 SAP HANA 兼容的主机名:
[root:~]# hostnamectl set-hostname dc1hana01
步骤: 验证 /etc/hosts
验证
/etc/hosts
是否包含与系统主机名和 IP 地址匹配的条目:.example.com
:[root:~]# hostname <hostname> [root:~]# hostname -s <hostname> [root:~]# hostname -f <hostname>.example.com [root:~]# hostname -d example.com
将系统语言设置为英语:
[root:~]# localectl set-locale LANG=en_US.UTF-8
步骤: 配置 NTP
编辑
/etc/chrony.conf
,并验证服务器行是否反映了您的 ntp 服务器:[root:~]# yum -y install chrony [root:~]# systemctl stop chronyd.service
检查时间服务器条目:
[root:~]# grep ^server /etc/chrony.conf server 0.de.pool.ntp.org server 1.de.pool.ntp.org
启用并启动 chrony 服务:
[root:~]# systemctl enable chronyd.service [root:~]# systemctl start chronyd.service [root:~]# systemctl restart systemd-timedated.service
验证
chrony
服务是否已启用:[root:~]# systemctl status chronyd.service chronyd.service enabled [root:~]# chronyc sources 210 Number of sources = 3 MS Name/IP address Stratum Poll Reach LastRx Last sample ===================================================================== ^* 0.de.pool.ntp.org 2 8 377 200 -2659ns[-3000ns] +/- 28ms ^-de.pool.ntp.org 2 8 377 135 -533us[ -533us] +/- 116ms ^-ntp2.example.com 2 9 377 445 +14ms[ +14ms] +/- 217ms
3.2.2. 为 SAP HANA 预配置 RHEL
使用这个流程为 SAP HANA 预配置 RHEL 系统。此配置基于公布的 SAP 备注。以 root 用户身份在集群中的每个 SAP HANA 主机上运行此步骤。
- 这个过程基于 SAP 备注 3108302 - HANA DB: 推荐的 RHEL 9 和 3108316 - Red Hat Enterprise Linux 9.x:安装和配置。
- 在 RHEL 9 中,您还可以使用 SAP 的 RHEL 系统角色来自动安装和配置 HA 集群节点。有关更多信息,请访问: SAP 的 Red Hat Enterprise Linux 系统角色。
3.2.3. 安装 SAP 主机代理
在安装具有 SAP 内核 7.20 或更高版本的所有新 SAP 系统实例或实例时,会自动安装 SAP Host Agent。在大多数情况下,不需要这个手动安装。请首先安装 SAP HANA,然后检查是否需要安装 saphostagent
。
先决条件
-
您已确认
umask
配置被配置为标准值(命令 umask 应该回复 0022.);否则,SAP Host Agent 安装可能会失败。 - 您以 root 用户身份登录 SAP 主机代理安装的每个主机上。
如果用户/组不存在,则在 SAP HANA 安装过程中创建用户和组,并通过安装 SAP 软件安装/升级 SAPHOSTAGENT
。
流程(可选)
为 SAP Host Agent 创建
sapadm
和sapsys
用户,并为sapadm
用户设置密码。用户sapadm
的 UID 996 和组sapsys
的 GID 79 基于本文档的 准备 SAP HANA Scale-Out 环境 部分中的参数。[root:~]# adduser sapadm --uid 996 [root:~]# groupadd sapsys --gid 79 [root:~]# passwd sapadm
创建 temp 目录,解压缩安装源,并从 temp 目录安装 SAP 主机代理。变量
INSTALLDIRHOSTAGENT
是一个示例:[root:~]# export TEMPDIR=$(mktemp -d) [root:~]# export INSTALLDIRHOSTAGENT=/install/HANA/DATA_UNITS/HDB_SERVER_LINUX_X86_64/ [root:~]# systemctl disable abrtd [root:~]# systemctl disable abrt-ccpp [root:~]# cp -rp ${INSTALLDIRHOSTAGENT}/server/HOSTAGENT.TGZ $TEMPDIR/ cd $TEMPDIR [root:~]# tar -xzvf HOSTAGENT.TGZ [root:~]# cd global/hdb/saphostagent_setup/ [root:~]# ./saphostexec -install
安全操作只适用于加密的连接。您可以配置正常工作的 SSL 连接来达到此目的。需要 SSL 密码。以下示例基于本文档的 Preparing SAP HANA Scale-Out environment 部分中的参数。
[root:~]# export MYHOSTNAME=$(hostname) [root:~]# export SSLPASSWORD=Us3Your0wnS3cur3Password [root:~]# export LD_LIBRARY_PATH=/usr/sap/hostctrl/exe/ [root:~]# export SECUDIR=/usr/sap/hostctrl/exe/sec [root:~]# cd /usr/sap/hostctrl/exe [root:~]# mkdir /usr/sap/hostctrl/exe/sec [root:~]# /usr/sap/hostctrl/exe/sapgenpse gen_pse -p SAPSSLS.pse -x $SSLPASSWORD -r /tmp/${MYHOSTNAME}-csr.p10 "CN=$MYHOSTNAME" [root:~]# /usr/sap/hostctrl/exe/sapgenpse seclogin -p SAPSSLS.pse -x $SSLPASSWORD -O sapadm chown sapadm /usr/sap/hostctrl/exe/sec/SAPSSLS.pse [root:~]# /usr/sap/hostctrl/exe/saphostexec -restart*
验证 SAP Host Agent 是否适用于所有 SAP HANA 节点:
[root:~]# netstat -tulpen | grep sapstartsrv tcp 0 0 0.0.0.0:50014 0.0.0.0:* LISTEN 1002 84028 4319/sapstartsrv tcp 0 0 0.0.0.0:50013 0.0.0.0:* LISTEN 1002 47542 4319/sapstartsrv
注意并非所有进程都被识别。不显示非拥有的进程信息。您必须是 root 用户才能查看所有进程。
[root:~]# netstat -tulpen | grep 1129 tcp 0 0 0.0.0.0:1129 0.0.0.0:* LISTEN 996 25632 1345/sapstartsrv
有关如何安装 SAP 主机代理的更多信息,请参阅 SAP 主机代理安装。
3.2.4. 使用 Scale-Out 和 System Replication 部署 SAP HANA
在使用 Scale-Out 和 System Replication 部署 SAP HANA 之前,您必须了解 SAP 网络映射。此解决方案为在实验室环境中部署提供最少的配置详细信息。但是,在配置生产环境时,需要通过单独的网络映射横向扩展网络通信和系统复制通信。此配置在 SAP HANA System Replication 的网络配置 中进行了描述。
根据 SAP HANA 服务器安装和更新指南中所述,应安装 SAP HANA 数据库。
有不同的选项可用于设置 SAP HANA 数据库。您必须在具有相同 SID 的两个数据中心上安装数据库。横向扩展配置需要每个站点至少 2 个 HANA 实例。
每个 HANA 站点的安装由以下步骤组成:
-
使用
hdblcm
在第一个节点上安装 SAP HANA 数据库(检查 SAP HANA 安装介质的SAP_HANA_DATABASE
子目录中的hdblcm
)。 在此第一节点上为 scale-out 配置内部网络(这只需要一次):
[root:~]# ./hdblcm --action=configure_internal_network
使用第一个安装创建的共享可执行文件在其他节点上安装额外的 HANA 实例:
[root:~]# /hana/shared/RH1/hdblcm/hdblcm
- 为每个 HANA 实例选择正确的 HANA 角色(worker 或 standby)。
- 对辅助 HANA 站点重复相同的步骤。
在两个站点之间设置 SAP HANA 系统复制:
- 复制密钥。
-
备份主数据库(
SYSTEMDB
和租户)。 - 在辅助站点上停止 HANA。
- 将辅助 HANA 网站注册到主要 HANA 站点。
- 在辅助站点上启动 HANA。
HANA 数据库安装也可以在批处理模式中使用 hdblcm
命令来完成。可以使用配置文件模板,该模板用作完整自动安装的应答文件。
在本解决方案中,SAP 数据库通过批处理模式安装,并集成通过每个数据中心的 SAP Host Agent 执行自动部署的额外主机。生成临时密码文件,其中包含所有必要的部署密码。基于此文件,将启动基于命令的批处理模式安装。
对于批处理模式安装,必须更改以下参数:
- SID
- 系统号
-
安装实例的主机名(
主机名
) -
所有主机名和角色(
添加主机
) -
系统类型(
system_usage
) -
<
sid>adm
用户的主目录 -
来自用户
sapadm
的userid
-
sapsys
中的 GroupId
大多数参数都由 SAP 提供。
流程
- 在每个数据中心中,以用户 root 用户身份登录一个 SAP HANA 节点,以启动 SAP HANA Scale-Out 安装。
在这个解决方案中,在每个数据中心的一个节点中执行以下命令:
[root:~]# INSTALLDIR=/install/51053381/DATA_UNITS HDB_SERVER_LINUX_X86_64/ [root:~]# cd $INSTALLDIR [root:~]# ./hdblcm --dump_configfile_template=/tmp/templateFile
重要必须使用正确的 addhosts 参数。这不得包含安装节点。
更改
/tmp/templateFile.xml
中的密码:注意internal_network
参数用于内部横向扩展通信网络。这会在安装过程中使用正确配置来预先填充 SAP HANA 配置文件global.ini
。数据中心 1 示例:
[root:~]# cat /tmp/templateFile.xml | ./hdblcm \ --batch \ --sid=RH1 \ --number=10 \ --action=install \ --hostname=dc1hana01 \ --addhosts=dc1hana02:role=worker,dc1hana03:role=worker,dc1hana04:role =standby \ --install_hostagent \ --system_usage=test \ --sapmnt=/hana/shared \ --datapath=/hana/data \ --logpath=/hana/log \ --root_user=root \ --workergroup=default \ --home=/usr/sap/RH1/home \ --userid=79 \ --shell=/bin/bash \ --groupid=79 \ --read_password_from_stdin=xml \ --internal_network=192.168.101.0/24 \ --remote_execution=saphostagent
数据中心 2 示例:
[root:~]# cat /tmp/templateFile.xml | ./hdblcm \ --batch \ --sid=RH1 \ --number=10 \ --action=install \ --hostname=dc2hana01 \ --addhosts=dc2hana02:role=worker,dc2hana03:role=worker,dc2hana04:role =standby \ --install_hostagent \ --system_usage=test \ --sapmnt=/hana/shared \ --datapath=/hana/data \ --logpath=/hana/log \ --root_user=root \ --workergroup=default \ --home=/usr/sap/RH1/home \ --userid=79 \ --shell=/bin/bash \ --groupid=79 \ --read_password_from_stdin=xml \ --internal_network=192.168.101.0/24 \ --remote_execution=saphostagent
安装完成后,验证每个数据中心的一个主机上是否都在一个主机上工作:
[root:~]# su - rh1adm /usr/sap/hostctrl/exe/sapcontrol -nr 10 -function GetSystemInstanceList 10.04.2019 08:38:21 GetSystemInstanceList OK hostname, instanceNr, httpPort, httpsPort, startPriority, features, dispstatus dc1hana01,10,51013,51014,0.3,HDB|HDB_WORKER, GREEN dc1hana03,10,51013,51014,0.3,HDB|HDB_STANDBY, GREEN dc1hana02,10,51013,51014,0.3,HDB|HDB_WORKER, GREEN dc1hana04,10,51013,51014,0.3,HDB|HDB_WORKER, GREEN rh1adm@dc1hana01:/usr/sap/RH1/HDB10> HDBSettings.sh landscapeHostConfiguration.py | Host | Host | Host | Failover | Remove | Storage | Storage | Failover | Failover | NameServer | NameServer | IndexServer | IndexServer | Host | Host | Worker | Worker | | | Active | Status | Status | Status | Config | Actual | Config | Actual | Config | Actual | Config | Actual | Config | Actual | Config | Actual | | | | | | | Partition | Partition | Group | Group | Role | Role | Role | Role | Roles | Roles | Groups | Groups | | --------- | ------ | ------ | -------- | ------ | --------- | --------- | -------- | -------- | ---------- | ---------- | ----------- | ----------- | ------- | ------- | ------- | ------- | | dc1hana01 | yes | ok | | | 1 | 1 | default | default | master 1 | master | worker | master | worker | worker | default | default | | dc1hana02 | yes | ok | | | 2 | 2 | default | default | master 3 | slave | worker | slave | worker | worker | default | default | | dc1hana03 | yes | ok | | | 2 | 2 | default | default | master 3 | slave | worker | slave | worker | worker | default | default | | dc1hana04 | yes | ignore | | | 0 | 0 | default | default | master 2 | slave | standby | standby | standby | standby | default | - | rh1adm@dc1hana01: HDB info USER PID PPID %CPU VSZ RSS COMMAND rh1adm 31321 31320 0.0 116200 2824 -bash rh1adm 32254 31321 0.0 113304 1680 \_ /bin/sh /usr/sap/RH1/HDB10/HDB info rh1adm 32286 32254 0.0 155356 1868 \_ ps fx -U rh1adm -o user:8,pid:8,ppid:8,pcpu:5,vsz:10,rss:10,args rh1adm 27853 1 0.0 23916 1780 sapstart pf=/hana/shared/RH1/profile/RH1_HDB10_dc1hana01 rh1adm 27863 27853 0.0 262272 32368 \_ /usr/sap/RH1/HDB10/dc1hana01/trace/hdb.sapRH1_HDB10 -d -nw -f /usr/sap/RH1/HDB10/dc1hana01/daemon.ini pf=/usr/sap/RH1/SYS/profile/RH1_HDB10_dc1hana01 rh1adm 27879 27863 53.0 9919108 6193868 \_ hdbnameserver rh1adm 28186 27863 0.7 1860416 268304 \_ hdbcompileserver rh1adm 28188 27863 65.8 3481068 1834440 \_ hdbpreprocessor rh1adm 28228 27863 48.2 9431440 6481212 \_ hdbindexserver -port 31003 rh1adm 28231 27863 2.1 3064008 930796 \_ hdbxsengine -port 31007 rh1adm 28764 27863 1.1 2162344 302344 \_ hdbwebdispatcher rh1adm 27763 1 0.2 502424 23376 /usr/sap/RH1/HDB10/exe/sapstartsrvpf=/hana/shared/RH1/profile/RH1_HDB10_dc1hana01 -D -u rh1adm
3.2.5. 配置 SAP HANA 系统复制
配置 SAP HANA 系统复制是在同时安装横向扩展环境后完成的。配置步骤有:
- 备份主数据库。
- 在主数据库上启用系统复制。
- 停止次要数据库。
- 复制数据库密钥。
- 注册二级数据库。
- 启动次要数据库。
- 验证系统复制。
此解决方案提供有关每个步骤的高级信息。
3.2.5.1. 备份主数据库
SAP HANA System Replication 需要备份主数据库。如果没有它,您无法将 SAP HANA 引入系统复制配置。
- 此解决方案提供了一个简单的示例。在生产环境中,您必须考虑备份基础架构和设置。
-
在 SQL 命令中包含"/"非常重要;例如,
/hana/shared/backup/
。如果不这样做,则需要对目录的写入权限进行写入,因为 SAP HANA 将不使用该目录,而是创建名为PATH_databackup*
的文件。
# Do this as root [root@dc1hana01]# mkdir -p /hana/shared/backup/ [root@dc1hana01]# chown rh1adm /hana/shared/backup/ [root@dc1hana01]# su - rh1adm [rh1adm@dc1hana01]% hdbsql -i 10 -u SYSTEM -d SYSTEMDB "BACKUP DATA USING FILE ('/hana/shared/backup/')" [rh1adm@dc1hana01]% hdbsql -i 10 -u SYSTEM -d RH1 "BACKUP DATA USING FILE ('/hana/shared/backup/')"
3.2.5.2. 启用 HANA 系统复制
在数据中心上创建备份功能后,您可以开始配置系统复制。第一个数据中心从配置作为源站点开始。
在 scale-out 系统的一个主机上启用第一个数据中心(DC1)的系统复制。
[root@dc1hana01]# su - rh1adm [rh1adm@dc1hana01]% hdbnsutil -sr_enable --name=DC1 nameserver is active, proceeding … successfully enabled system as system replication source site done.
在为系统复制启用第一个数据中心后,必须将第二个数据中心注册到第一个数据中心。您必须将两个密钥从已启用的源系统复制到第二个数据中心。这必须在数据库停止时完成。
将密钥和密钥数据文件从主站点复制到次要站点。这只在每个数据中心的一个节点上完成。此文件通过分隔的横向扩展环境中的
/hana/shared
目录共享。如需更多信息,请参阅 SAP Note 2369981 - 使用 HANA System Replication 进行身份验证所需的配置步骤。在数据中心 1 (DC1)的一个节点上启动这个命令:
[root@dc1hana01]# scp -rp /usr/sap/RH1/SYS/global/security/rsecssfs/data/SSFS_RH1.DAT root@dc2hana01:/usr/sap/RH1/SYS/global/security/rsecssfs/data/SSFS_RH 1.DAT [root@dc1hana01]# scp -rp /usr/sap/RH1/SYS/global/security/rsecssfs/key/SSFS_RH1.KEY root@dc2hana01:/usr/sap/RH1/SYS/global/security/rsecssfs/key/SSFS_RH1 .KEY
在将两个密钥复制到次要站点后,您可以将第二个数据中心(从 SAP HANA 实例)注册到主 SAP HANA 实例。这必须在数据中心 2 (DC2)的节点上作为
'user <sid>adm
来完成。注意现在,可以使用两个复制类型模式:
- delta_datashipping
- logreplay
复制模式应当是
sync
或syncmem
。"classic" 操作模式是delta_datashipping
。HA 的首选模式是logreplay
。使用操作模式logreplay
使您的次要站点在 SAP HANA System Replication a hot standby 系统中。如需更多信息,请参阅 SAP HANA System Replication。使用首选操作模式,系统复制在 DC2 节点上配置为 <
sid>adm
用户:[root@dc1hana01]# su - rh1adm [rh1adm@dc1hana01]% hdbnsutil -sr_register --name=DC2 \ --remoteHost=dc1hana03 --remoteInstance=10 \ --replicationMode=sync --operationMode=logreplay \ --online # Start System [rh1adm@dc1hana01]% /usr/sap/hostctrl/exe/sapcontrol -nr 10 -function StartSystem
系统启动后,运行以下命令验证所有内容是否按预期工作。当 HANA Scale-Out 环境正确运行时,
dispstatus
必须为sapcontrol
的GetSystemInstanceList
功能输出中的所有节点显示GREEN
(这在初始启动后可能需要几分钟时间)。另外,环境主机配置必须处于OK
状态。GetInstanceList: rh1adm@dc2hana01:/usr/sap/RH1/HDB10> /usr/sap/hostctrl/exe/sapcontrol -nr 10 -function GetSystemInstanceList 01.04.2019 14:17:28 GetSystemInstanceList OK hostname, instanceNr, httpPort, httpsPort, startPriority, features, dispstatus dc2hana02, 10, 51013, 51014, 0.3, HDB|HDB_WORKER, GREEN dc2hana01, 10, 51013, 51014, 0.3, HDB|HDB_WORKER, GREEN dc2hana04, 10, 51013, 51014, 0.3, HDB|HDB_STANDBY, GREEN dc2hana03, 10, 51013, 51014, 0.3, HDB|HDB_WORKER, GREEN Check landscapeHostConfiguration: rh1adm@dc2hana01:/usr/sap/RH1/HDB10> HDBSettings.sh landscapeHostConfiguration.py Storage | Failover | Failover | NameServer | NameServer | IndexServer | IndexServer | Host | Host | Worker | Worker | | | Active | Status | Status | Status | Config | Actual | Config | Actual | Config | Actual | Config | Actual | Config | Actual | Config | Actual | | | | | | | Partition | Partition | Group | Group | Role | Role | Role | Role | Roles | Roles | Groups | Groups | | | | | | | | | | | | | | | | | | | | dc2hana01 | yes | ok | | | 1 | | default | default | master 1 | master | worker | master | worker | worker | default | default | | dc2hana02 | yes | ok | | | 2 | | default | default | slave | slave | worker | slave | worker | worker | default | default | | dc2hana03 | yes | ok | | | 3 | | default | default | master 3 | slave | worker | slave | worker | worker | default | default | | dc2hana04 | yes | ignore | | | 0 | 0 | default | default | master 2 | slave | standby | standby | standby | standby | default | - | overall host status: ok
在 Datacenter 1 网站上,
dispstatus
必须为sapcontrol
的GetSystemInstanceList
功能输出中的所有节点显示GREEN
,而环境主机配置必须处于OK
状态。rh1adm@dc1hana01: /usr/sap/hostctrl/exe/sapcontrol -nr 10 -function GetSystemInstanceList rh1adm@dc1hana01:/hana/shared/backup> /usr/sap/hostctrl/exe/sapcontrol -nr 10 -function GetSystemInstanceList Red Hat Enterprise Linux HA Solution for SAP HANA Scale Out and System Replication Page 55 26.03.2019 12:41:13 GetSystemInstanceList OK hostname, instanceNr, httpPort, httpsPort, startPriority, features, dispstatus dc1hana01, 10, 51013, 51014, 0.3, HDB|HDB_WORKER, GREEN dc1hana02, 10, 51013, 51014, 0.3, HDB|HDB_WORKER, GREEN dc1hana03, 10, 51013, 51014, 0.3, HDB|HDB_WORKER, GREEN dc1hana04, 10, 51013, 51014, 0.3, HDB|HDB_STANDBY, GREEN rh1adm@dc1hana01:/usr/sap/RH1/HDB10> HDBSettings.sh landscapeHostConfiguration.py | Host | Host | Host | Failover | Remove | Storage | Storage | Failover | Failover | NameServer | NameServer | IndexServer | IndexServer | Host | Host | Worker | Worker | | | Active | Status | Status | Status | Config | Actual | Config | Actual | Config | Actual | Config | Actual | Config | Actual | Config | Actual | | | | | | | Partition | Partition | Group | Group | Role | Role | Role | Role | Roles | Roles | Groups | Groups | | --------- | ------ | ------ | -------- | ------ | --------- | --------- | -------- | -------- | ---------- | ---------- | ----------- | ----------- | ------- | ------- | ------- | ------- | | dc1hana01 | yes | ok | | | 1 | 1 | default | default | master 1 | master | worker | master | worker | worker | default | default | | dc1hana02 | yes | ok | | | 2 | 2 | default | default | master 2 | slave | worker | slave | worker | worker | default | default | | dc1hana03 | yes | ok | | | 3 | 3 | default | default | slave | slave | worker | slave | worker | worker | default | default | | dc1hana04 | yes | ignore | | | 0 | 0 | default | default | master 3 | slave | standby | Red Hat Enterprise Linux HA Solution for SAP HANA Scale Out and System Replication Page 56 standby | standby | standby | default | - | overall host status: ok rh1adm@dc1hana01:/usr/sap/RH1/HDB10> # Show Systemreplication state rh1adm@dc1hana01:/usr/sap/RH1/HDB10> HDBSettings.sh systemReplicationStatus.py | Database | Host | Port | Service Name | Volume ID | Site ID | Site Name | Secondary | Secondary | Secondary | Secondary | Secondary | Replication | Replication | Replication | | | | | | | | | Host | Port | Site ID | Site Name | Active Status | Mode | Status | Status Details | | -------- | --------- | ----- | ------------ | --------- | ------- | --------- | --------- | --------- | --------- | --------- | ------------- | ----------- | ----------- | -------------- | | SYSTEMDB | dc1hana01 | 31001 | nameserver | 1 | 1 | DC1 | dc2hana01 | 31001 | 2 | DC2 | YES | SYNC | ACTIVE | | | RH1 | dc1hana01 | 31007 | xsengine | 2 | 1 | DC1 | dc2hana01 | 31007 | 2 | DC2 | YES | SYNC | ACTIVE | | | RH1 | dc1hana01 | 31003 | indexserver | 3 | 1 | DC1 | dc2hana01 | 31003 | 2 | DC2 | YES | SYNC | ACTIVE | | | RH1 | dc1hana03 | 31003 | indexserver | 5 | 1 | DC1 | dc2hana03 | 31003 | 2 | DC2 | YES | SYNC | ACTIVE | | | RH1 | dc1hana02 | 31003 | indexserver | 4 | 1 | DC1 | dc2hana02 | 31003 | 2 | DC2 | YES | SYNC | ACTIVE | | status system replication site "2": ACTIVE overall system replication status: ACTIVE Local System Replication State Red Hat Enterprise Linux HA Solution for SAP HANA Scale Out and System Replication Page 57 ~~~~~~~~~~ mode: PRIMARY site id: 1 site name: DC1 rh1adm@dc1hana01:/usr/sap/RH1/HDB10>
检查 HANA 系统复制是否处于活动状态。
rh1adm@dc1hana01:/usr/sap/RH1/HDB10> HDBSettings.sh systemReplicationStatus.py | Database | Host | Port | Service Name | Volume ID | Site ID | Site Name | Secondary | Secondary | Secondary | Secondary | Secondary | Replication | Replication | Replication | | | | | | | | | Host | Port | Site ID | Site Name | Active Status | Mode | Status | Status Details | | -------- | --------- | ----- | ------------ | --------- | ------- | --------- | --------- | --------- | --------- | --------- | ------------- | ----------- | ----------- | -------------- | | SYSTEMDB | dc1hana01 | 31001 | nameserver | 1 | 1 | DC1 | dc2hana01 | 31001 | 2 | DC2 | YES | SYNC | ACTIVE | | | RH1 | dc1hana01 | 31007 | xsengine | 2 | 1 | DC1 | dc2hana01 | 31007 | 2 | DC2 | YES | SYNC | ACTIVE | | | RH1 | dc1hana01 | 31003 | indexserver | 3 | 1 | DC1 | dc2hana01 | 31003 | 2 | DC2 | YES | SYNC | ACTIVE | | | RH1 | dc1hana03 | 31003 | indexserver | 5 | 1 | DC1 | dc2hana03 | 31003 | 2 | DC2 | YES | SYNC | ACTIVE | | | RH1 | dc1hana02 | 31003 | indexserver | 4 | 1 | DC1 | dc2hana02 | 31003 | 2 | DC2 | YES | SYNC | ACTIVE | | status system replication site "2": ACTIVE overall system replication status: ACTIVE Local System Replication State ~~~~~~~~~~ mode: PRIMARY site id: 1 site name: DC1 rh1adm@dc1hana01:/usr/sap/RH1/HDB10>
注意如果在生产环境中实施此配置,建议您更改
global.ini
文件中的网络通信。此操作将与指定适配器的通信限制到系统复制网络。如需更多信息,请参阅 SAP HANA 系统复制的网络配置。重要需要手动测试完整的 SAP HANA Scale-Out System Replication 环境,并验证所有 SAP HANA 功能是否都正常工作。如需更多信息,请参阅 SAP HANA System Replication。