题)
SELinux 组件可用来加强系统安全性。在 Linux 中,SELinux 凌驾于 root 权限之
上,设置了很多额外的配置项。如果了解这些配置项,可以进行相应设置,但如果不了
解,那么 SELinux 可能不仅没有一些实际性的帮助,反而会带来很多不确定因素。
SELinux 有 3 种模式,分别是 Enforcing,Permissive 和 Disabled 状态。
[root@localhost ~]# setenforce 0
临时开启 SELinux:
[root@localhost ~]# setenforce 1
查看当前状态命令:
[root@localhost ~]# getenforce
Permissive
永 久 关 闭 SELinux 需 修 改 配 置 文 件 : /etc/selinux/config ,修改
SELINUX=disabled
[root@localhost ~]# cat /etc/selinux/config
# This file controls the state of SELinux on the system.
# SELINUX= can take one of these three values:
# enforcing - SELinux security policy is enforced.
# permissive - SELinux prints warnings instead of enforcing.
# disabled - No SELinux policy is loaded.
SELINUX=disabled #修改为 disabled
# SELINUXTYPE= can take one of three two values:
# targeted - Targeted processes are protected,
# minimum - Modification of targeted policy. Only selected processes
are protected.
# mls - Multi Level Security protection.
SELINUXTYPE=targeted
防火墙影响范围:端口对应服务外部无法访问,无法安装集群产品。
[root@dm8 ~]# service iptables stop
##关闭开机自启
[root@dm8 ~]# chkconfig iptables off
添加端口到白名单。
##查看防火墙端口开放情况:
##redhat 7/8
firewall-cmd --zone=public --list-ports
##redhat 6
iptables -L
(1) Redhat6 添加端口到防火墙(iptables):
方式一:修改系统文件,永久更改,需重启防火墙服务
[root@dm8 ~]# vi /etc/sysconfig/iptables
-A INPUT -p tcp -m tcp --dport 5236 -j ACCEPT #添加 5236 端口到防火墙
[root@dm8 ~]# service iptables save;service iptables restart;
#保存后,重启防火墙
方式二:命令行添加端口,永久更改,需重启防火墙服务
[root@dm8 ~]# iptables -A INPUT -s 0.0.0.0/0.0.0.0 -p tcp --dport 5236 -j ACCEPT
[root@dm8 ~]# service iptables save;service iptables restart; --保存后重启防火墙
注意:
修改文件配置后,需重启防火墙服务。
(2) Redhat7/8 添加端口到防火墙(Firewall):
##添加(--permanent 永久生效,没有此参数重启后失效)
firewall-cmd --zone=public --add-port=5236/tcp --permanent
##重新载入
firewall-cmd --reload
##查看
firewall-cmd --zone=public --query-port=5236/tcp
##删除
firewall-cmd --zone=public --remove-port=5236/tcp –permanent
注意:
添加端口到防火墙时,使用 --permanent 后才能永久生效,否则重启后失效。
sar -n DEV 1 100
#备注:
#IFACE 本地网卡接口的名称
#rxpck/s 每秒钟接受的数据包
#txpck/s 每秒钟发送的数据包
#rxKB/S 每秒钟接受的数据包大小,单位为 KB
#txKB/S 每秒钟发送的数据包大小,单位为 KB
#rxcmp/s 每秒钟接受的压缩数据包
#txcmp/s 每秒钟发送的压缩包
#rxmcst/s 每秒钟接收的多播数据包
磁盘规划是项目实施前的一项重要工作,不仅涉及系统上线的运行效果,也会影响
后期的运维扩展操作。
当条件有限只能使用单块盘的情况下,建议通过创建不同的 LV,设置多个挂载点。如
果使用多块盘的则尽量一块盘一个挂载点,多块磁盘有利于磁盘空间的分配,可以进行
数据分离处理,避免彼此资源占用。
如果数据量较大,且对于数据交互分析 sql 有比较大要求的场景,推荐将数据目录配
置到固态磁盘(可根据 IO 等判断)。对于处理数据量不大的业务项目,且不牵扯大数
据分析的场景,可以使用全机械磁盘。
其中归档、备份和数据分开存储,备份也可以存放到 nas 上,实现异地备份。
以下列举了分开存储的优势:
1)磁盘写入数据时会产生较少的资源占用和冲突,有利于提高数据库的性能。
2)可以很容易的监测各类的使用和剩余空间。
3)减少磁盘误删或毁坏造成的损失。
4)不会抢占数据库的磁盘使用空间。
1.5.2 磁盘格式
常用的磁盘格式主要有 ext4 和 XFS,以下分别指出 XFS 的优点和缺点:
优点
(1)数据完全性。采用 XFS 文件系统,当意想不到的宕机发生后,首先,由于文
件系统开启了日志功能,所以磁盘上的文件不再会意外宕机而遭到破坏了。不论目前文
件系统上存储的文件与数据有多少,文件系统都可以根据所记录的日志在很短的时间内
迅速恢复磁盘文件内容。相比 ext4 更能保证数据完整。
(2)传输特性。XFS 文件系统采用优化算法,日志记录对整体文件操作影响非常
小。XFS 查询与分配存储空间非常快。XFS 文件系统能连续提供快速的反应时间。
(3)可扩展性。XFS 是一个全 64-bit 的文件系统,可以支持上百万 T 字节的
存储空间。对特大文件及小尺寸文件的支持都表现出众,支持特大数量的目录。最大可
支持的文件大小为 263 = 9 x 1018 = 9 exabytes,最大文件系统尺寸为 18
exabytes。XFS 使用高的表结构( B+ 树),保证了文件系统可以快速搜索与快速空间
分配。相比 ext4,XFS 能够持续提供高速操作,文件系统的性能不受目录中目录及文
件数量的限制。
(4)传输带宽。XFS 能以接近裸设备 I/O 的性能存储数据。在单个文件系统的测
试中,其吞吐量最高可达 7GB 每秒,对单个文件的读写操作,其吞吐量可达 4GB 每
秒。相比 ext4,XFS 传输速度更快。
缺点。XFS 的 lvm 不能直接在线缩减空间,所以一定注意,XFS 文件系统的 lvm 分
区,尽量往小了分,一旦上线,已分配的空间就只扩不减。
传统关系型数据库的最大瓶颈之一就在于磁盘的读写速率上,因此检测磁盘的 IO 速
率是十分必要的。
磁盘的运作是磁盘读写前寻找磁道的过程。磁盘自带的读写缓存大小,对于磁盘读写速
度至关重要。读写速度快的磁盘,通常都带有较大的读写缓存。测试服务器读写性能,
以此来判断是否存在性能瓶颈。
真实模拟 20K 次磁盘写入(IO)
dd bs=32k count=20k if=/dev/zero of=test oflag=dsync
nmon 测试工具
部署 nmon
tar xvfz nmon.tar.gz
chmod 777 nmon
应用
./nmon
# c 查看 CPU 相关信息
# m 查看内存相关信息
# d 查看磁盘相关信息
# n 查看网络相关信息
# t 查看相关进程信息
# h 查看帮助相关信息
./nmon -f -s 30 -c 60 -m /data/nmon/data_nmon
参数说明
-f 监控结果以文件形式输出,默认机器名+日期 .nmon 格式
-F 指定输出的文件名,比如 test.nmon
-s 指的是采样的频率,单位为秒
-c 指的是采样的次数,即以上面的采样频率采集多少次
-m 指定生成的文件目录
使用 nmon analyser 工具
打开 .xlsm 文件,点击 Analyze nmon data,打开你需要进行分析的 --nmon 监控
文件:
!!如果宏不能运行,需要做以下操作:
工具 -> 宏 -> 安全性 -> 中,然后再打开文件并允许运行宏。
OSW 测试工具
部署 osw
tar -xvf osw.tar
##应用
./startOSWbb.sh 60 10 #这个命令每隔 60 秒收集一次,数据保留 10 个
小时。
##数据分析
[root@prd-t005-ap-26-42 oswbb]# java -jar oswbba.jar -i
/data/oswbb/archive
#参数 -i 表示处理的数据目录。此外,如果只想生成某个时间段的报表,可以使用参
数-B -E
java -jar oswbba.jar -i /data/oswbb/archive -B Dec 7 15:30:00 2021 -E Dec 7 17:00:00 2021
每当进程需要进行磁盘 I/O 操作时,它就向操作系统发出一个系统调用。如果所需的
磁盘驱动器和控制器空闲,则立即处理请求。如果磁盘驱动器或控制器忙,则任何新的
服务请求都会添加磁盘驱动器的待处理请求队列。对于具有多个进程的一个多道程序系
统,磁盘队列可能有多个待处理的请求。因此操作系统如何选择待处理请求的服务便是
磁盘调度算法。
CFQ (完全公平排队 I/O 调度程序)
CFQ 全称 Completely Fair Scheduler ,中文名称完全公平调度器,CFQ 是内
核默认选择的 I/O 调度器。它将由进程提交的同步请求放到多个进程队列中,然
后为每个队列分配时间片以访问磁盘。CFQ 对于很多 IO 压力较大的场景并不是
很适应,尤其是 IO 压力集中在某些进程上的场景。因为这种场景需要更多的满足
某个或者某几个进程的 IO 响应速度,而不是让所有的进程公平的使用 IO,比如
数据库应用。
NOOP (电梯式调度程序)
NOOP 全称 No Operation,中文名称电梯式调度器,该算法实现了最简单的 FIFO
队列,所有 I/O 请求大致按照先来后到的顺序进行操作。NOOP 实现了一个简单
的先入先出(FIFO)队列,它像电梯的工作方式一样对 I/O 请求进行组织。它是
基于先入先出(FIFO)队列概念的 Linux 内核里最简单的 I/O 调度器。此调度
程序最适合于固态硬盘。NOOP 倾向饿死读而利于写,因为写请求比读请求更容易,
写请求通过文件系统 cache,不需要等一次写完成,就可以开始下一次写操作,写
请求通过合并,堆积到 I/O 队列中。读请求需要等到它前面所有的读操作完成,
才能进行下一次读操作,在读操作之间有几毫秒时间,而写请求在这之间就到来,
饿死了后面的读请求。对于数据库应用磁盘 IO 读写都高频的进程而言 NOOP 也
是不适合的。
Deadline (截止时间调度程序)
deadline 实现了四个队列,其中两个分别处理正常 read 和 write,另外两个
处理超时 read 和 write 的队列,按请求创建时间排序,如果有超时的请求出
现,就放进这两个队列,调度算法保证超时(达到最终期限时间)的队列中的请求
会优先被处理,防止请求被饿死。Deadline 确保了在一个截止时间内服务请求,
这个截止时间是可调整的,而默认读期限短于写期限,这样就防止了写操作因为不
能被读取而饿死的现象。因此,Deadline 对数据库环境是最好的选择。
AS (预料 I/O 调度程序)
AS (预料 I/O 调度程序)是基于预测的 I/O 算法。顾名思义有 I/O 发生时,如
果又有进程请求 I/O 操作,则将产生一个默认的 6 毫秒猜测时间,猜测下一个
进程请求 I/O 是要干什么的。这个 I/O 调度器对读操作优化服务时间,在提供
一个 I/O 的时候进行短时间等待,使进程能够提交到另外的 I/O。AS 算法从
Linux 2.6.33 版本后被删除了。AS 适合于写入较多的环境,AS 对数据库环境表
现很差。
综上:达梦数据库的稳定运行,需要将磁盘的调度算法设置为 deadline,特别是 arm
平台,必须要设置为 deadline。如存储为 nvme 等高性能的设备时,此类设备 IO 调
度算法只有 none,则无需设置。
通过 lsblk 命令找到数据盘对应的物理盘。
注意:
下图中数据盘对应的物理盘是 sda,则应检查 sda 磁盘的调度算法。
##检查 sda 磁盘的调度算法
[root@dm8 ~]# cat /sys/block/sda/queue/scheduler
注意:
上图选中的调度算法是[bfq],需要修改调度算法为 deadline。
临时更改 I/O 调度方法,重启后失效
[root@dm8 ~]# echo deadline > /sys/block/sda/queue/scheduler
永久修改
修改内核引导参数,加入 elevator=deadline
[root@dm8 ~]# vi /boot/grub/menu.lst
更改到如下内容
kernel /vmlinuz-2.6.32-642.el6.x86_64 ro root=/dev/mapper/vg_centos6-
lv_root rd_NO_LUKS LANG=en_US.UTF-8 rd_LVM_LV=vg_centos6/lv_swap
rd_NO_MD SYSFONT=latarcyrheb-sun16 crashkernel=auto
rd_LVM_LV=vg_centos6/lv_root KEYBOARDTYPE=pc KEYTABLE=us rd_NO_DM
elevator=deadline rhgb quiet
重新确认调度算法
[root@dm8 ~]# cat /sys/block/sda/queue/scheduler
在 Linux 下,SWAP 的作用类似 Windows 系统下的“虚拟内存”。当物理内存不足时,拿
出部分硬盘空间当 SWAP 分区(虚拟成内存)使用,从而解决内存容量不足的情况。
数据库系统一般都对响应延迟比较敏感,如果使用 swap 代替内存,数据库服务性能必
然不可接受。
注:Swap 的关闭需要视情况而定,内存充裕(较大)关闭,内存太小不关闭。
• 临时关闭 swap 分区,重启后失效
[root@dm8 ~]# swapoff -a
• 永久修改
[root@dm8 ~]# sed -ri 's/.*swap.*/#&/' /etc/fstab
##重启操作系统
[root@dm8 ~]# reboot
##再次确认
[root@dm8 ~]# free -m
NUMA(Non-Uniform Memory Access)架构是为了解决多 CPU 下内存访问冲突,即
不再将整个物理内存作为一个整体,而是根据不同的 CPU 区分不同的内存块,如 2 颗
CPU 每颗 CPU 使用 64G 内存。当 NUMA 参数 zone_reclaim_mode 设置为 1 时,
内核将要求多路 CPU 尽量从距离较近的系统内存节点(服务器的整体内存在 numa 架
构下将被分成若干个节点)分配内存,而不是在整个服务器可访问内存的范围内进行内
存分配。因此,在较高内存占用压力下,内存申请会触发内存频繁回收整理的机制,严
重影响系统整体性能(长期处于内核态 sys 很高),进而可能导致 SQL 卡顿问题的发
生。
编辑 grub 文件,如下图所示加上:numa=off
[root@dm8 ~]# vi /etc/grub.conf
kernel /vmlinuz-2.6.32-642.el6.x86_64 ro root=/dev/mapper/vg_centos6-
lv_root rd_NO_LUKS LANG=en_US.UTF-8 rd_LVM_LV=vg_centos6/lv_swap
rd_NO_MD SYSFONT=latarcyrheb-sun16 crashkernel=auto
rd_LVM_LV=vg_centos6/lv_root KEYBOARDTYPE=pc KEYTABLE=us rd_NO_DM
elevator=deadline rhgb quiet numa=off
重启操作系统
[root@dm8 ~]# reboot
重启之后进行确认
[root@dm8 ~]# numactl --hardware
再次确认(确认 OS 层面禁用 NUMA 是否成功)
[root@dm8 ~]# cat /proc/cmdline
Transparent HugePages (透明大页)对系统的性能产生影响的原因:
在 khugepaged 进行扫描进程占用内存,并将 4k Page 交换为 Huge Pages 的这个
过程中,对于操作的内存的各种分配活动都需要各种内存锁,直接影响程序的内存访问
性能。并且,这个过程对于应用是透明的,在应用层面不可控制,对于专门为 4k page
优化的程序来说,可能会造成随机的性能下降现象。
Centos 系统
临时修改
查看是否启用透明大页
[root@dm8 ~]# cat /sys/kernel/mm/transparent_hugepage/enabled
[always]表示透明大页启用 [never] 表示透明大页禁用
禁用透明大页
[root@dm8 ~]# echo never > /sys/kernel/mm/transparent_hugepage/enabled
临时修改与永久修改
再次确认
[root@dm8 ~]# cat /sys/kernel/mm/transparent_hugepage/enabled
永久修改
编辑 grub 文件,如下图所示加上:transparent_hugepage=never
[root@dm8 ~]# vi /etc/default/grub
重启操作系统
[root@]# reboot
##再次确认
[root@]# cat /sys/kernel/mm/transparent_hugepage/enabled
鲲鹏 arm+ 银河麒麟操作系统 V10SP1
(1) 查看透明大页内存。
使用下图中命令查看当前操作系统透明大页内存配置。
[root@]# grep -i huge /proc/meminfo
[root@]# cat /sys/kernel/mm/transparent_hugepage/enabled
从上面输出可以看到,每页的大小为 2MB(Hugepagesize),并且系统中目前有 0 个
“大内存页”(HugePages_Total)。而当前的透明大页内存配置是开启的(always 个)。
(2) 关闭透明大页内存。
通过修改 grub 配 置 , 在 “GRUB_CMDLINE_LINUX=” 配 置 参 数 结 尾 加 入
“transparent_hugepage=never”,可以永久关闭透明大页内存。
[root@dm8 ~]# vim /etc/default/grub
(3) 重新生成 grub 配置。
如果操作系统安装时,使用 Legacy 模式引导安装,则使用以下命令重新生成 grub。
[root@~] # grub2-mkconfig -o /boot/grub2/grub.cfg
如果操作系统安装时,使用 UEFI 模式引导安装,则使用以下命令重新生成 grub。
[root@dm8 ~]# grub2-mkconfig -o /boot/efi/EFI/kylin/grub.cfg
(4) 生成 grub 后,重启操作系统查看配置。
可以看到系统中目前透明大页内存为 0,并且禁用透明大页内存(never)。查
看 /sys/kernel/mm/transparent_hugepage/defrag 配置文件缺省配置为
“madvise”。
如需永久修改配置为 “never”,需在 /etc/rc.local 中添加如下内容。
if test -f /sys/kernel/mm/transparent_hugepage/defrag; then
echo never > /sys/kernel/mm/transparent_hugepage/defrag
fi
groupadd dinstall -g 2001
useradd -u 1001 -g dinstall -m -d /home/dmdba -s /bin/bash dmdba
passwd dmdba
mkdir /dm8#创建安装目录
chown dmdba:dinstall -R /dm8/#更改所有者
chmod -R 755 /dm8#更改权限
/etc/sysctl.conf 是一个允许改变正在运行中的 Linux 系统的接口,它包含一些
TCP/IP 堆栈和虚拟内存系统的高级选项,修改内核参数永久生效。
配置参数 overcommit_memory 表示系统的内存分配策略可以选值为 0,1,2。
0,表示内核将检查是否有足够的可用内存供应用进程使用;如果有足够的可用内
存,内存申请允许;否则,内存申请失败,并把错误返回给应用进程。
1,表示内核允许分配所有的物理内存,而不管当前的内存状态如何。
2,表示内核允许分配超过所有物理内存和交换空间总和的内存。
临时生效
使用 root 执行命令:
[root@dm~]# echo 0 > /proc/sys/vm/overcommit_memory
查看执行结果:
[root@dm~]# cat /proc/sys/vm/overcommit_memory1.13
永久生效
用 root 用户编辑配置文件编辑/etc/sysctl.conf
[root@dm~]# vim /etc/sysctl.conf
##修改 vm.overcommit_memory=0
然后执行 sysctl -p 使配置文件生效:
在 Linux 和 HP-UNIX 等系统中,操作系统默认会对程序使用操作系统资源进行限制。
如果不取消对应的限制,那么数据库的性能将会受到影响。
1.core file size 建议设置为 unlimited。并将 core 文件目录放到大的空间目录
存放。
2.data seg size 建议设置为 1048576 以上或 unlimited,此参数过小将导致数
据库启动失败。
3.file size 建议设置 unlimited (无限制),此参数过小导致数据库安装或初始化
失败。
4.open files 建议设置为 65536 以上或 unlimited。
5.virtual memory 建议设置为 1048576 以上或 unlimited,此参数过小将导致数
据库启动失败。
6.max user processes 最大线程数这个参数建议修改为 10240。
• 临时修改
查询当前系统资源限制
[dmdba@~]# ulimit -a
##设置 open files 65536 以上或 unlimited、设置 max user processes 为
10240
[dmdba@]# ulimit -n 65535 ##临时修改 open files 为 65535
[dmdba@]# ulimit -u 10240 ##临时修改 max user processes 为 10240
[dmdba@~]# ulimit -a ##查看修改是否生效
• 永久修改
编辑 limits.conf 文件
[root@dm8 ~]# vi /etc/security/limits.conf
##在最后面添加以下内容
* soft nproc 10240
* hard nproc 10240
dmdba soft nproc 10240
dmdba hard nproc 10240
dmdba soft nofile 65536
dmdba hard nofile 65536
dmdba hard data unlimited
dmdba soft data unlimited
dmdba hard fsize unlimited
dmdba soft fsize unlimited
dmdba soft core unlimited
dmdba hard core unlimited
ulimit -a ##确认是否生效(此时如果未创建用户,不会生效;需要创建用户并重启
后,切换用户查看)
system.conf 为系统和服务管理的配置文件,当运行系统实例时,systemd 将读
取这个配置文件 system.conf,相反读取 user.conf。
达梦数据库服务注册为系统服务的进程,如通过 systemctl 或者 service 方式
设定随机自启动的数据库服务,其能打开的最大文件描述符、proc 数量等不
受 limits.conf 控制,需要修改 /etc/systemd/system.conf 文件。
(1) DefaultLimitNOFILE:用户默认最大打开文件数。
(2) DefaultLimitNPROC:用户默认最大进程数。
编辑配置文件/etc/systemd/system.conf
[root@dm~]# vim /etc/systemd/system.conf
##添加配置:
DefaultLimitNOFILE=65536
DefaultLimitNPROC=10240 保存退出后需要重启服务器才能生效
nproc 是 操 作 系 统 级 别 对 每 个 用 户 创 建 的 进 程 数 的 限 制 。 文 件 路 径
为 /etc/security/limits.d/nproc。不同操作系统文件名略有不同,其中麒麟 10
中是 nproc.conf;centos6 中是 90-nproccentos,centos7 中是 20-nproc.conf。
/etc/security/limits.conf 可配置限制文件打开数,系统进程等资源在该文件配
置中写的最大用户进程数是受 /etc/security/limits.d/proc.conf 配置上限影响
的。
soft 表示软限制,hard 表示硬限制,nproc 进程数,nofile 文件数。
root@nf2180034:/root#cd /etc/security/limits.d
root@nf2180034:/etc/security/1imits.d#1s
nproc.conf
root@nf2180034:/etc/security/1imits.d#cat nproc.conf
dmdba soft nproc 65536
dmdba hard nproc 65536
编辑配置文件 /etc/security/limits.d/nproc.conf
[root@dm~]# vi /etc/security/limits.d/nproc.conf
##添加配置:
dmdba soft nproc 65536
dmdba hard nproc 65536
##确定是否生效:
[dmdba@~]# ulimit -u
65536
如果是在 /etc/security/limits.conf 修 改 最 大 用 户 进 程 数 , 那 就 注 释 掉
/etc/security/limits.d/90-nproc.conf 文件中的内容即可;(以上应该仅供老版
本参考)
我这块是在/etc/security/limits.conf 中修改过,内容如下
/etc/profile 文件与环境变量相关,修改后对所有用户起作用。登录 Linux 时,
会首先启动 /etc/profile 文 件 , 然 后 再 启 动 用 户 目 录 下
的 ~/.bash_profile 、 ~/.bash_login 或 ~/.profile 文件中的其中一
个。 /etc/profile 为全局(公有)配置,不管是哪个用户,登录时都会读取该文
件。.~/.profile 若 bash 是以 login 方式执行时,读取 ~/.bash_profile,若
它不存在,则读取 ~/.bash_login,若前两者不存在,则读取 ~/.profile。
调整 dmdba 用户下的环境变量文件 .bash_profile。
(1) LD_LIBRARY_PATH 主要用于指定查找共享库(动态库)时除了默认路径之外
的其他路径。
(2) PATH 环境变量定义了用于进行命令和程序查找的目录, PATH 中的目录使用冒
号分隔。
(3) DM_HOME 定义达梦数据库的软件目录。
su - dmdba
vi .bash_profile
export DM_HOME="/dm8/dmdbms"
export LD_LIBRARY_PATH="$LD_LIBRARY_PATH:/dm8/bin"
export PATH=$PATH:$DM_HOME/bin:$DM_HOME/tool
保存文件后执行 source .bash_profile 生效
超线程技术是把多线程处理器内部的两个逻辑内核模拟成两个物理芯片,让单个处
理器就能使用线程级的并行计算,进而兼容多线程操作系统和软件。超线程技术充分利
用空闲 CPU 资源,在相同时间内完成更多工作。
需根据数据库本身是否需要开启或关闭来决定如何操作,一般在 BIOS 中进行开启/关
闭操作。
通过解析 /proc/cpuinfo 文件内容来判定是否开启超线程,如服务器开启了超线程则
下述公式计算结果等于 2,否则等于 1。
系统的 cpu 线程数/(物理 CPU 个数*每个物理 CPU 的逻辑核数)
系统的 cpu 线程数:
cat /proc/cpuinfo | grep "processor" | wc -l
物理 CPU 个数:
cat /proc/cpuinfo | grep "physical id" | sort|uniq | wc -l
每个物理 CPU 的逻辑核数:
cat /proc/cpuinfo |grep "core id"|sort -u|wc -l
达梦数据库针对从操作系统申请的内存资源进行内存池管理,所有的数据库线程从自己
的内存池中进行处理,但是若 glibc 版本大于 2.10,操作系统会给数据库线程再分
配一个内存池,这个内存池数据库是无法管理和释放的。所以导致数据库进程的 VIRT
(虚拟内存)占用过高,通过添加操作系统参数 MALLOC_ARENA_MAX 禁止操作系统额
外为数据库线程分配内存,数据库相关线程只从数据库已申请的内存池中进行资源分配,
从而有效控制内存资源使用大小。
[dmdba@~]#rpm -qa|grep glibc
[dmdba@]#cd /home/dmdba/dmdbms/bin
[dmdba@]#vim DmServicexxx
export MALLOC_ARENA_MAX=4
RemoveIPC 参数会控制当前用户在完全注销时,是否删除属于用户自己的 Systemd V
和 POSIX IPC 对象,接受布尔参数。如果启用该参数,则在用户的最后一个会话终止
后,用户可能不会使用 IPC 资源。这包括 System V 信号量、共享内存和消息队列,
以及 POSIX 共享内存和消息队列。请注意,根用户和其他系统用户的 IPC 对象不受
此设置的影响。RemoveIPC 默认值要根据操作系统版本情况而定。
本节只介绍检查麒麟 v10 SP1 版本的 RemoveIPC 参数。
/etc/systemd/logind.conf 配置文件是 Systemd 的一部分,Systemd 是自由软
件,用户可以重新分发或修改它,该文件在编译时会携带默认值,用户可通过编
译 logind.conf 来满足自己的需求。
检查 RemoveIPC 参数设置,要求为 no 。
systemctl show systemd-logind | grep -i removeipc
如果不是 no,用以下方法调整:
修改 /etc/systemd/logind.conf 配置文件中的 RemoveIPC 参数,将#注释去掉,
并修改 yes 为 no,重启服务 systemctl daemon-reload;systemctl restart
systemd-logind。
limits.conf 文件实际是 Linux PAM ( 插 入 式 认 证 模 块 , Pluggable
Authentication Modules 中 pam_limits.so 的配置文件),突破系统的默认限制,
对系统访问资源有一定保护作用,当用户访问服务器时,服务程序将请求发送到 PAM
模块,PAM 模块根据服务名称在 /etc/pam.d 目录下选择一个对应的服务文件,然后
根据服务文件的内容选择具体的 PAM 模块进行处理。
limits.conf 和 sysctl.conf 区 别 在 于 limits.conf 是 针 对 用 户 ,
而 sysctl.conf 是针对整个系统参数配置。
[root@dm8 ~]# vi /etc/pam.d/login
session required /lib64/security/pam_limits.so
session required pam_limits.so
安装前工作完毕!!!
达梦社区地址
文章
阅读量
获赞