注册
DMDSC部署
培训园地/ 文章详情 /

DMDSC部署

Q 2025/11/21 60 0 0

DMDSC概述

DMDSC 集群是一个多实例、单数据库的系统。多个数据库实例可以同时访问、修改同一个数据库的数据。用户可以登录集群中的任意一个数据库实例,获得完整的数据库服务。数据文件、控制文件在集群系统中只有一份,不论有几个节点,这些节点都平等地使用这些文件,这些文件保存在共享存储上。每个节点有自己独立的联机日志和归档日志,联机日志和归档日志都需要保存在共享存储上。
DMDSC 集群主要由数据库和数据库实例、共享存储、DMASM 或 DMASM 镜像、本地存储、通信网络、集群控制软件 DMCSS、集群监视器 DMCSSM 组成。DMDSC 集群最多支持 8 个数据库实例节点。

DMDSC特性

DMDSC 的主要包括三个特性:第一个是高可用性,只要集群中有一个活动节点,就能正常提供数据库服务。第二个是高吞吐量的特性,多个节点同时提供数据库服务,有效提升集群的整体事务处理能力。第三个是负载均衡,所谓的负载均衡是指将网络请求、计算任务或数据流量,均匀分配到多个服务器、节点或资源池的技术,核心目标是避免单一设备过载,提升系统整体的可用性、吞吐量和响应速度。DMDSC通过巧用服务名,用户的连接请求被平均分配到集群中的各个节点,确保连接负载平衡;另一方面,条带化技术可保证写入的数据均匀分布到磁盘组内的不同磁盘中,实现数据负载均衡。

高可用性

一 、使用集群控制软件 DMCSS
DMCSS 能够在检测到节点故障时自动将其剔除,以确保数据库服务持续可用。故障节点上的用户连接会自动切换到当前活动节点,其中未提交的事务会回滚,已提交的事务则不会受到影响。活动节点的用户连接会继续保留,执行中的操作会短暂挂起,在故障处理完成后继续执行。当 DMCSS 发现故障节点恢复时,会自动启动节点重新加入流程,将其纳入 DMDSC 集群,使集群恢复到正常状态。
二、使用 DMASM 镜像的多副本技术
DMASM镜像功能支持多副本机制。当某个磁盘发生故障或数据丢失时,系统能够自动切换到其他镜像副本继续提供数据库服务,无需人工参与。同时,还可以通过这些镜像副本进行数据恢复,恢复过程既可自动完成也可由人工触发。

高吞吐量

DMDSC 集群由多个数据库实例组成,每个实例拥有独立的 CPU 和内存资源,并可通过缓存交换机制加速共享数据访问。各实例均能独立处理用户的数据库请求。
与传统的单节点数据库系统相比,DMDSC 能充分发挥多台服务器的计算能力,支持更多用户并发连接,显著提升整体吞吐性能。相较于双机热备架构,DMDSC 集群不存在长期处于备用状态的节点,从而避免硬件资源闲置,实现资源的高效利用。

负载均衡

通过设置 DM 数据库的连接服务名即可访问 DMDSC 集群,从而实现节点之间的连接自动负载均衡。用户的访问请求会被智能地分配到集群中的不同节点,确保连接负载的平均分布。

DMDSC架构介绍

DMDSC 集群由若干数据库实例组成,这些实例间通过网络(MAL 链路)连接,通过一个特殊的软件(DMCSS,集群同步服务)的协助,共同操作一个数据库。数据文件、控制文件等文件在集群中只有一份,所有节点平等地使用这些数据文件。每个服务器通过高速共享存储网络连接到共享存储上。如下图展示一个两节点的DMDSC集群架构。
image.png

两节点DMDSC集群架构

MAL 链路

MAL 系统是达梦数据库基于 TCP 协议实现的一种内部通信机制,具有可靠、灵活、高效的特性。使用 DMASM 文件系统的 DMDSC 集群中存在两套 MAL 系统,DMASM 服务器之间配置一套 MAL 系统,DMSERVER 服务器之间配置一套 MAL 系统。两套 MAL 系统工作原理相同:一旦 MAL 链路出现异常,DMCSS 会进行裁定,并从集群中踢出一个节点,保证集群环境正常运行。MAL链路如下图示。
image.png

MAL链路

DMASM(DM 自动存储管理器)

专用用来为块设备管理文件的分布式文件系统。使用 DMASM 文件系统可以灵活地在块设备上创建、删除、扩展、截断文件,不用担心空间不足或空间浪费,可以通过在线增加块设备的磁盘来扩展空间;不用考虑文件个数限制;可以方便地查看空间使用情况。DMDSC 支持多个节点同时访问、修改 DMASM 中的数据文件。DMDSC 集群中若配置 DMASM,则要求DMASM 站点数和 DMCSS 站点数一致,且只能存在一个 DMCSS 组和一个 DMASM 组。DMASM架构图示。
image.png

DMASM架构

共享存储上的数据非常宝贵,为了保障这些数据的安全性和高可用性,达梦提供了 DMASM 镜像功能。镜像是 DMASM 的一个重要功能。
DMASM 镜像提供了多副本和条带化功能。多副本技术保证同一数据的多个副本会分别写入到不同的磁盘中。多个副本中只有一个作为主副本对外提供服务,其余副本均作为镜像副本。当主副本发生故障后,系统会从镜像副本中重新自动挑选一个继续提供服务。条带化技术可保证写入的数据均匀分布到磁盘组内的不同磁盘中,实现负载均衡。
DMDSC 采用配置镜像功能的 DMASM 管理的块设备作为共享存储,当出现磁盘损坏或数据丢失时,既可以利用其他镜像副本继续提供数据库服务,又可以使用其他镜像副本进行数据恢复。

DMCSS(DM 集群同步服务)

DMCSS是一款集群控制软件,是 DMDSC 集群应用的基础。DMCSS 专门负责监控集群中各个节点的运行状态,主要功能包括集群环境中节点的启动、故障处理、节点重加入等操作。每个 DMDSC 集群或 DMASM 集群节点都必须配置一个 DMCSS 服务。这些 DMCSS 服务又共同构成一个 DMCSS 集群。单节点应用时,可以不配置 DMCSS。
DMCSS 集群中负责监控、管理整个 DMASM 集群和 DMDSC 集群的节点称为控制节点,其他 DMCSS 节点称为普通节点。DMCSS 普通节点不参与 DMASM 集群和 DMDSC 集群管理,当 DMCSS 控制节点故障时,会从活动的普通节点中重新选取一个 DMCSS 控制节点。
DMCSS 工作的基本原理是:在 VOTE 磁盘(非镜像环境下)或 DCRV 磁盘(镜像环境下)中,为每个被监控对象(DMASMSVR、DMSERVER、DMCSS)分配一片独立的存储区域,被监控对象定时向 VOTE 或 DCRV 磁盘写入信息;DMCSS 控制节点定时从 VOTE 或 DCRV 磁盘读取信息,检查被监控对象的状态变化,启动相应的处理流程;被监控对象只会被动的接收 DMCSS 控制节点命令,执行并响应。

DMCSSM(DM 集群监视器)

DMCSSM用来监控整个集群的状态信息。DMCSSM 与 DMCSS 相互通信,从 DMCSS 处获取整个集群系统的状态信息。DMCSSM提供一系列管理维护集群的命令。DMCSS 每秒会发送集群中所有节点的状态信息、当前连接到 DMCSS 的监视器信息以及 DCR 的配置信息到活动的监视器上,监视器提供对应的 show 命令用于查看各类信息。

DMDSC安装部署

环境准备

image.png

创建共享磁盘

方案1:使用 vmware-vdiskmanager.exe 创建共享磁盘

注意:建议使用 vmware-vdiskmanager.exe 的方式添加共享磁盘。如果使用直接在其中一台机器创建磁盘的方式创建的话,第二台在关联的方式可能会使后面搭建出现问题。

以管理员身份打开 cmd 进入到虚拟机安装目录:

cd /d D:\VMware

执行以下命令创建20G的共享磁盘:

.\vmware-vdiskmanager.exe -c -s 20G -a lsilogic -t 2 "D:\VMware\SHARE-DSC\SHARE.vmdk"

image.png
创建完成之后,可以在目录中(D:\VMware\SHARE-DSC)看到:
image.png
在第一台服务器上添加一个磁盘
1.选择虚拟机(DSC1) >右键“设置” > 添加“硬盘” > SCSI > 使用现有虚拟磁盘> 选择现有磁盘(浏览找到刚刚创建的“SHARE.vmdk”)> 完成。
2.选择新添加得硬盘2 (SCSI) >高级> 设置设备号为SCSI 1:1 ,模式为独立、永久。
在第二台服务器同样添加这个磁盘
1.选择虚拟机(DSC2) >右键“设置” > 添加“硬盘” > SCSI > 使用现有虚拟磁盘> 选择现有磁盘(浏览找到刚刚创建的“SHARE.vmdk”)> 完成。
2.选择新添加得硬盘2 (SCSI) >高级> 设置设备号为SCSI 1:1 ,模式为独立、永久。

方案2:直接在一台机器上创建共享磁盘

在第一台服务器上添加一个磁盘
1.选择虚拟机(DSC1) >右键“设置” > 添加“硬盘” > SCSI > 创建新虚拟磁盘> 指定磁盘容量> 指定磁盘文件 路径及命名> 确定。
2.选择新添加得硬盘2 (SCSI) >高级> 设置设备号为SCSI 1:1 ,模式为独立、永久。
在第二台服务器同样添加这个磁盘
选择虚拟机(DSC2) >右键“设置” > 添加“硬盘” > SCSI > 使用现有虚拟磁盘> 选择现有磁盘(浏览找到刚 创建的“DCS.vmdk”)> 完成。
选择新添加得硬盘2 (SCSI) >高级> 设置设备号为SCSI 1:1 ,模式为独立、永久。
更改两台虚拟机.VMX文件

注意:此处创建磁盘之后,DSC1服务器和 DSC2 服务器只能启动一个,不能同时启动,会显示虚拟机被锁定。所以还要找到 DSC1 和 DSC2 服务器的 .vmx 文件,使用管理员权限用记事本打开文件,在文件的最后添加如下两行:

disk.locking="FALSE"scsi1:1.SharedBus="Virtual"

注释:
disk.locking=“FALSE” 取消这块硬盘被当前虚拟机的锁定,使其他虚拟机也可以同时加载这块盘;
Scsi1:1.SharedBus=“Virtual” 这里的 1:1 要和上面新增的一块盘对应的序号一致。

安装达梦数据库

在共享磁盘上裸设备分区

因为是对 DSC1 和 DSC2 的共享磁盘进行的分区,所以只需在 DSC1 进行分区即可,DSC2 会自动进行同步,这里需要将 DSC2 关机重启,之后才能看到共享磁盘同步,如果还是没有则需要重新挂载磁盘。
对 DSC1 共享磁盘进行分区

fdisk -l
lsblk
fdisk /dev/sdb

image.png
需要分区后才能进行绑定。依次输入下列信息:

n → p → 1 → “ 回车” → +1G #dcr
n → p → 2 → “ 回车” → +1G #vote
n → p → 3 → “ 回车” → +10G #log0
n → p → 4 → “ 回车” → 回车 #data0
w #保存

image.png

查看 DSC1 磁盘分区情况

lsblk

查看分区 DSC2 的共享磁盘分区是否同步
这里需要将DSC2关机重启,之后才能看到共享磁盘同步,如果还是没有则需要重新挂载磁盘。

lsblk

配置裸设备

共享存储需要在 DSC1 和 DSC2 节点上都进行操作, sdb1-sdb4 是需要配置的共享磁盘。
在 DSC1 和 DSC2 上新建udev 规则文件

vi /etc/udev/rules.d/90-raw.rules

添加以下内容:

ACTION=="add",KERNEL=="sdb1",RUN+="/bin/raw /dev/raw/raw1 %N"ACTION=="add",KERNEL=="sdb2",RUN+="/bin/raw /dev/raw/raw2 %N"ACTION=="add",KERNEL=="sdb3",RUN+="/bin/raw /dev/raw/raw3 %N"ACTION=="add",KERNEL=="sdb4",RUN+="/bin/raw /dev/raw/raw4 %N"KERNEL=="raw[1-4]", OWNER="dmdba", GROUP="dinstall", MODE="660"
执行以下命令,使 udev 生效:

partprobe /dev/sdb
udevadm trigger --action=add

执行以下命令,检查是否配置成功:

ll /dev/raw/raw*

先查看是否配置成功,如果查看不到配置的裸设备,不要慌,重启服务器再验证。
image.png
image.png

配置相关文件

1.配置 DCR 初始化配置文件
DSC1 和 DSC2 都需要进行配置
创建配置文件存放目录,执行以下命令:

su - dmdba
mkdir -p /home/dmdba/config

新建dmdcr_cfg.ini 文件,执行以下命令:

vim /home/dmdba/config/dmdcr_cfg.ini

添加以下内容:

DCR_N_GRP = 3
DCR_VTD_PATH = /dev/raw/raw2
DCR_OGUID = 63635
[GRP]
DCR_GRP_TYPE = CSS
DCR_GRP_NAME = CSS
DCR_GRP_N_EP = 2
DCR_GRP_DSKCHK_CNT = 60
[CSS]
DCR_EP_NAME = CSS1
DCR_EP_HOST = 192.168.200.10 #DCR_EP_HOST
DCR_EP_PORT = 9341
[CSS]
DCR_EP_NAME = CSS2
DCR_EP_HOST = 192.168.200.20 #DCR_EP_HOST
DCR_EP_PORT = 9341
[GRP]
DCR_GRP_TYPE = ASM
DCR_GRP_NAME = ASM
DCR_GRP_N_EP = 2
DCR_GRP_DSKCHK_CNT = 60
[ASM]
DCR_EP_NAME = ASM1
DCR_EP_SHM_KEY = 93360
DCR_EP_SHM_SIZE = 10
DCR_EP_HOST = 192.168.200.10 #DCR_EP_HOST
DCR_EP_PORT = 9351
DCR_EP_ASM_LOAD_PATH = /dev/raw
[ASM]
DCR_EP_NAME = ASM2
DCR_EP_SHM_KEY = 93361
DCR_EP_SHM_SIZE = 10
DCR_EP_HOST = 192.168.200.20 #DCR_EP_HOST
DCR_EP_PORT = 9351
DCR_EP_ASM_LOAD_PATH = /dev/raw
[GRP]
DCR_GRP_TYPE = DB
DCR_GRP_NAME = DSC
DCR_GRP_N_EP = 2
DCR_GRP_DSKCHK_CNT = 60
[DSC]
DCR_EP_NAME = DSC1
DCR_EP_SEQNO = 0
DCR_EP_PORT = 5236
DCR_CHECK_PORT = 9741
[DSC]
DCR_EP_NAME = DSC2
DCR_EP_SEQNO = 1
DCR_EP_PORT = 5236
DCR_CHECK_PORT = 9741

2.创建 ASM 磁盘

只在 DSC1 上进行操作
第一步:创建磁盘
使用dmdba 用户,到DM 数据库软件安装目录的bin 目录,在 DSC1上使用 DMASMCMD 工具初始化,执行以下命令:

su - dmdba
cd /home/dmdba/dmdbms/bin
./dmasmcmd

进入ASM 提示符后执行以下命令:

create dcrdisk '/dev/raw/raw1' 'dcr'
create votedisk '/dev/raw/raw2' 'vote' 
create asmdisk '/dev/raw/raw3' 'LOG0'  
create asmdisk '/dev/raw/raw4' 'DATA0'

image.png

第二步:初始化磁盘
使用编辑好的 dmdcr_cfg.ini 配置文件初始化 dcrdisk 和 votedisk,并在 ASM 提示符执行以下命令:

init dcrdisk '/dev/raw/raw1' from '/home/dmdba/config/dmdcr_cfg.ini' identified by '密码'

init votedisk '/dev/raw/raw2' from '/home/dmdba/config/dmdcr_cfg.ini'

image.png

3.配置 DMASM 的 MAL 系统配置文件

DSC1 和 DSC2 节点都需要配置,且文件内容相同
执行以下命令:

vi /home/dmdba/config/dmasvrmal.ini

添加以下内容:

[MAL_INST1]
MAL_INST_NAME = ASM1
MAL_HOST = 192.168.200.10 #MAL_HOST
MAL_PORT = 7236
[MAL_INST2]
MAL_INST_NAME = ASM2
MAL_HOST = 192.168.200.20 #MAL_HOST
MAL_PORT = 7236

4.配置DCR 启动配置文件

DSC1 和 DSC2 节点各需要创建dmdcr.ini文件。
1.两者内容差别主要在于 DMDCR_SEQNO 和 PATH 中的实例名。
2.将 ASM 和 DB 的重启参数均设置为 0,为手动拉起 ASM 和 DB 服务,主要是为了防止拉起过程出现故障导致 不断重启。也就是如下两个参数:DMDCR_ASM_RESTART_INTERVAL 和 DMDCR_DB_RESTART_INTERVAL
3.如需自动启动,可修改参数 DMDCR_ASM_RESTART_INTERVAL=10 以及DMDCR_DB_RESTART_INTERVAL = 30

vi /home/dmdba/config/dmdcr.ini

节点1 添加以下内容:

DMDCR_PATH = /dev/raw/raw1
DMDCR_MAL_PATH =/home/dmdba/config/dmasvrmal.ini #dmasmsvr 使用的 MAL 配置文件路径
DMDCR_SEQNO = 0
#ASM 重启参数,命令行方式启动
DMDCR_ASM_RESTART_INTERVAL = 0
DMDCR_ASM_STARTUP_CMD = /home/dmdba/dmdbms/bin/dmasmsvr dcr_ini=/home/dmdba/config/dmdcr.ini
#DB 重启参数,命令行方式启动
DMDCR_DB_RESTART_INTERVAL = 0
DMDCR_DB_STARTUP_CMD = /home/dmdba/dmdbms/bin/dmserver path=/dmdata/data/DMTEST/dm.ini dcr_ini=/home/dmdba/config/dmdcr.ini

注意:DMDCR_ASM_STARTUP_CMD和DMDCR_DB_STARTUP_CMD的配置不要换行!
节点 2 添加以下内容:

DMDCR_PATH = /dev/raw/raw1
DMDCR_MAL_PATH =/home/dmdba/config/dmasvrmal.ini #dmasmsvr 使用的 MAL 配置文件路径
DMDCR_SEQNO = 1
#ASM 重启参数,命令行方式启动
DMDCR_ASM_RESTART_INTERVAL = 0
DMDCR_ASM_STARTUP_CMD = /home/dmdba/dmdbms/bin/dmasmsvr dcr_ini=/home/dmdba/config/dmdcr.ini
#DB 重启参数,命令行方式启动
DMDCR_DB_RESTART_INTERVAL = 0
DMDCR_DB_STARTUP_CMD = /home/dmdba/dmdbms/bin/dmserver path=/dmdata/data/DMTEST/dm.ini dcr_ini=/home/dmdba/config/dmdcr.ini

注意:DMDCR_ASM_STARTUP_CMD和DMDCR_DB_STARTUP_CMD的配置不要换行!
启动 DMCSS 服务
DSC1 和 DSC2 节点启动 DMCSS 服务
使用 dmdba 用户到数据库安装目录 bin 目录下,执行以下命令:
前台方式启动

su - dmdba
cd /home/dmdba/dmdbms/bin
./dmcss dcr_ini=/home/dmdba/config/dmdcr.ini

image.png

启动 DMASM 服务
DSC1 和 DSC2 节点启动 DMASM 服务
使用 dmdba 用户到数据库安装目录bin 下执行以下命令:

su - dmdba
cd /home/dmdba/dmdbms/bin
./dmasmsvr dcr_ini=/home/dmdba/config/dmdcr.ini

image.png

创建 DMASM 磁盘组
只在 DSC1 节点操作
ASM 启动成功后,DSC1 节点使用 dmdba 用户启动 dmasmtool 工具。

su - dmdba
cd /home/dmdba/dmdbms/bin
./dmasmtool dcr_ini=/home/dmdba/config/dmdcr.ini  

在 ASM 提示符下创建 asm 磁盘组,创建 REDO 日志磁盘组和数据文件磁盘组。

create diskgroup 'DMLOG' asmdisk '/dev/raw/raw3'  
create diskgroup 'DMDATA' asmdisk '/dev/raw/raw4' 
exit

初始化 DMDSC 集群数据库实例

1.配置dminit 控制文件
只在 DSC1 节点操作
DSC1 节点使用 dmdba 用户执行以下命令:

vi /home/dmdba/config/dminit.ini

添加以下内容:(注意修改IP和路径)

db_name = DSC
system_path = +DMDATA/data
system = +DMDATA/data/dsc/system.dbf
system_size = 128
roll = +DMDATA/data/dsc/roll.dbf
roll_size = 128
main = +DMDATA/data/dsc/main.dbf
main_size = 128
ctl_path = +DMDATA/data/dsc/dm.ctl
ctl_size = 8
log_size = 1024
dcr_path = /dev/raw/raw1 #dcr 磁盘路径, 目前不支持 asm,只能是裸设备
dcr_seqno = 0
auto_overwrite = 1
[DSC1] #inst_name 跟 dmdcr_cfg.ini 中 DB 类型 group 中 DCR_EP_NAME 对应
config_path = /home/dmdba/config/dsc1
port_num = 5236
mal_host = 192.168.200.10
mal_port = 9236
log_path = +DMLOG/log/DSC1_log01.log
log_path = +DMLOG/log/DSC1_log02.log
[DSC2] #inst_name 跟 dmdcr_cfg.ini 中 DB 类型 group 中 DCR_EP_NAME 对应
config_path = /home/dmdba/config/dsc2
port_num = 5236
mal_host = 192.168.200.20
mal_port = 9236
log_path = +DMLOG/log/DSC2_log01.log
log_path = +DMLOG/log/DSC2_log02.log

2.初始化实例

只在 DSC1 节点操作
DSC1 节点使用 dmdba 用户执行以下命令:

./dminit control=/home/dmdba/config/dminit.ini SYSDBA_PWD=密码 SYSAUDITOR_PWD=密码 SYSSSO_PWD=密码

之后初始化命令的同时会在 init 控制文件配置的目录下生成 2 个实例的配置文件:

将 dsc2 文件传输给 DSC2节点

scp -r /home/dmdba/config/dsc2  dmdba@192.168.200.20:/home/dmdba/config/

注册服务
DSC1 和 DSC2 两个节点都需要进行注册
使用 root 用户执行,到数据库安装目录的 script/root 目录下面,DSC1 节点执行以下命令:

./dm_service_installer.sh -t dmcss -p css1 -dcr_ini /home/dmdba/config/dmdcr.ini

DSC2 节点执行以下命令:

./dm_service_installer.sh -t dmcss -p css2 -dcr_ini /home/dmdba/config/dmdcr.ini

关闭前台启动的 css ,以服务方式启动 css。DSC1 节点执行以下命令:

systemctl start DmCSSServicecss1

DSC2 节点执行以下命令:

systemctl start DmCSSServicecss2

启动数据库实例
DSC1 和 DSC2 都需要操作
使用 dmdba 用户到数据库安装目录bin,DSC1 执行以下命令:

su - dmdba
cd /home/dmdba/dmdbms/bin
./dmserver path=/home/dmdba/config/dsc1/dm.ini dcr_ini=/home/dmdba/config/dmdcr.ini

DSC2 执行以下命令:

su - dmdba
cd /home/dmdba/dmdbms/bin
./dmserver path=/home/dmdba/config/dsc2/dm.ini dcr_ini=/home/dmdba/config/dmdcr.ini

验证集群状态
1.配置监视器查看
只在 DSC1 上操作即可
新建监视器配置文件,执行以下命令:

vi /home/dmdba/config/dmcssm.ini

添加以下内容:(注意修改IP)

CSSM_OGUID = 63635 # 和 dmdcr_cfg.ini 中的 DCR_OGUID 保持一致
CSSM_CSS_IP = 192.168.200.10:9341 # 和 dmdcr_cfg.ini 中 CSS 配置项相关信息保持一致
CSSM_CSS_IP = 192.168.200.20:9341
CSSM_LOG_PATH =/home/dmdba/dmdbms/log #监视器日志文件存放路径
CSSM_LOG_FILE_SIZE = 1024 #每个日志文件最大 1024 MB
CSSM_LOG_SPACE_LIMIT = 0 #不限定日志文件总占用空间

2.启动监视器
dmdba 用户执行,到数据库软件安装目录bin 下执行以下命令:

su - dmdba
cd /home/dmdba/dmdbms/bin
./dmcssm ini_path=/home/dmdba/config/dmcssm.ini

输入 show 命令,查看 css、asm 和 db 的状态。

以 db 为例, inst_status 字段为 OPEN ,vtd_status 字段为 WORKING ,active 字段为 TRUE 说明 db 服务正常。

数据库共享验证
在 DSC1 节点创建 T1 表

create table t1(id int,name varchar2(50));

在 DSC1 节点向 T1 表插入数据,并 commit 提交数据

insert into t1 values (1,'name1'),(2,'name2');
commit;

之后在 DSC2 节点查询数据,验证是否数据共享

select * from t1;

归档配置
1.生产环境必须开启归档日志,且必须限制归档日志保留量。
2.共享存储集群归档需要配置本地归档和远程归档(保证每个节点都有所有归档日志)。
实例 DSC1 上配置,执行以下命令:

alter database mount;
alter database archivelog;
alter database add archivelog 'DEST=/home/dmdba/dmarch, TYPE=LOCAL, FILE_SIZE=1024, SPACE_LIMIT=102400';
alter database add archivelog 'DEST=dsc3, TYPE=REMOTE, FILE_SIZE=1024, SPACE_LIMIT=102400, INCOMING_PATH=/home/dmdba/remote_arch';
alter database open;

实例 DSC2 上配置,执行以下命令:

alter database mount;
alter database archivelog;
alter database add archivelog 'DEST=/home/dmdba/dmarch, TYPE=LOCAL, FILE_SIZE=1024, SPACE_LIMIT=102400';
alter database add archivelog 'DEST=dsc1, TYPE=REMOTE, FILE_SIZE=1024, SPACE_LIMIT=102400, INCOMING_PATH=/home/dmdba/remote_arch';
alter database open;

评论
后发表回复

作者

文章

阅读量

获赞

扫一扫
联系客服