https://aijishu.com/a/1060000000321521
本文主要介绍在ARM64 CentOS系统下,MySQL使用jemalloc作为内存管理器时,内存占用问题的分析过程和解决方法。
Jemalloc是由Jason Evans在FreeBSD项目中引入的内存分配管理器,它的优势在于减少内存碎片和提升高并发场景下内存的分配效率。
鉴于jemalloc的诸多优点,计划使用jemalloc作为内存管理器来优化MySQL,下面是测试环境。
CPU: ARM64
Memory: 512GB
OS: CentOS Linux release 8.3.2011
Kernel: 4.18.0-193.28.1.el8_2.aarch64
MySQL: 8.0.25
Test Tool: SysBench 1.0.20
Jemalloc: 5.2.1
# wget https://github.com/jemalloc/jemalloc/archive/refs/tags/5.2.1.tar.gz -O jemalloc-5.2.1.tar.gz
# tar xzvf jemalloc-5.2.1.tar.gz
# cd jemalloc-5.2.1
# ./autogen.sh
//安装到指定目录
# ./configure --prefix=/home/test-user/jemalloc-5.2.1-install
//编译并安装
# make; make install
//配置环境变量
# export LD_PRELOAD=/home/test-user/jemalloc-5.2.1-install/lib/libjemalloc.so
安装好MySQL后,通过如下命令检查jemalloc是否被正常使用(MySQL的安装请参考官方步骤,这里不再赘述)
# lsof -n |grep jemalloc
下图显示MySQL已经正常使用jemalloc
sysbench启动80个线程对MySQL进行读写压测。
压测过程中发现内存使用“异常”:MySQL进程占用的物理内存超过了100GB。
不使用jemalloc切换回默认的glibc后,内存占用降低到了7GB,和以往的测试结果一致。
从测试结果看,使用jemalloc作为内存管理器时内存使用量激增,需要进一步分析原因。内存使用量是否合理?是否和架构相关?
首先需要确定该“问题”是否在x86架构上也存在,是否和操作系统或内核版本相关。
为了快速验证以上疑问,在AWS上分别创建x86实例(m5)和arm64实例(m6g)进行测试, 并没有复现“问题”。这两个实例默认的操作系统是Amazon Linux 2,而本地测试时使用的是CentOS8,在m6g上安装CentOS8重新测试,“问题”复现。测试结果如下:
对比测试环境,分析它们不同点,我们发现该“问题”只有在内核page size是64KB时才会出现。
另外,根据前文介绍,jemalloc中extent会基于page size分配内存。而且,深入分析jemalloc代码后还发现有多个数据结构的内存分配都涉及到page size,比如size_class, bin, extents, arena等等。
页表在操作系统中作为最基础的内存分配结构,ARM64支持4K、16K、64K不同大小的页表,x86只支持4KB。而本地测试使用的ARM64 CentOS的默认page size就是64KB,所以初步判断该“问题”和page size的配置相关。
即然ARM64架构支持多种page size,而page size为4KB时没有出现问题,那么可以修改ARM64 CentOS8的内核默认的page size来解决该"问题"。
由于内核当前页表大小只支持静态配置,不支持动态修改,所以需要重新编译内核。
修改方法如下:
解压并修改内核配置参数
# tar xf linux-x.x.x.tar.xz
# cd linux-x.x.x
# cp /boot/config-xxx .config
# make menuconfig
在图形菜单中找到“Kernel Features-> Page size”,选择4KB并保存配置
编译并安装新的内核
# make -j
# make modules_install
# make install
重启进入新的内核,参看page size是否修改成功
# getconf PAGE_SIZE
4096
修改page size为4KB后重新测试,jemalloc内存使用量和glibc接近。测试结果如下:
至此该“问题”似乎可以通过修改page size来解决。但是,如果用户仍然需要使用64KB的页表,该方法将不再适用。
实际上,jemalloc本身支持编译参数“--with-lg-page=16”,该参数可以使jemalloc在page size为4KB时复用多个页面来达到使用64KB页面的效果。
尝试在4KB page size的系统下加入该编译参数,并没有出现内存使用量激增的现象。
这说明除了page size,还有其他因素影响了jemalloc的内存分配,仍然需要进一步分析。
通过以上测试发现该“问题”和MySQL并没有直接关系。为了简化分析和复现过程,单独开发了一个micro-benchmark https://github.com/machuang1983/jemalloc_micro_benchmark
该程序用于建立多个线程,每个线程分配一定内存,程序运行过程中实时打印进程的内存使用情况。
通过micro-benchmark可以快速复现问题。测试结果显示,每新建一个线程就会消耗1GB左右的内存。测试结果如下:
再次简化测试,直接运行单线程程序,如sleep 100,进程就会占用1GB内存。
由此看见,jemalloc针对一个线程进行内存初始化分配时就会分配1GB内存。需要深入分析jemalloc具体的分配机制。
按前文所述,jemalloc的内存分配涉及到多个数据结构,我们结合gdb单步执行来分析jemalloc代码,同时实时查看内存占用的变化,由此定位到关键代码。
调试过程中发现,base会基于默认的hugepage size分配内存,分配之后监控到内存使用量突然增大,具体代码在 https://github.com/jemalloc/jemalloc/blob/dev/src/base.c#L46-L49
继续搜索hugepage size相关代码,还发现另一处使用它来分配内存,代码在https://github.com/jemalloc/jemalloc/blob/master/src/arena.c#L2052
由此可见除了page size,hugepage size对jemalloc的内存分配也有影响。通常hugepage size比page size大得多,所以hugepage size的影响会更大。
内存管理采用"分页机制",但是当运行内存需求量较大时,默认page大小的页面会导致较多的TLB miss和缺页中断,从而大大影响应用程序性能。所以,有些场景希望可以使用更大的内存页作为映射单位,因此引入了hugepage。
不同架构支持的hugepage size不同,见下表:
ARM64 CentOS在page size=64KB时,默认hugepage size是512MB,jemalloc的base会以512MB来分配内存,而当page size=4KB时,默认hugepage size是2MB。所以回顾前面的测试,修改page size后问题消失的主要原因是默认的hugepage size改变导致的。
修改启动参数“default_hugepagesz=2M”
ARM64支持多种hugepage size,可以使用hugepagesz启动参数进行调整,无需重新编译内核。
永久修改
临时修改
修改默认hugepage size后测试结果(sysbench使用256线程压测)如下:
测试结果显示,将hugepage size改为2MB以后,jemalloc的内存使用情况和glibc接近。
该"问题"和架构无关,jemalloc作为内存管理器,如果默认hugepage size较大,会导致软件占用较大的内存,jemalloc提供了编译参数"--with-lg-hugepage=21"来降低这个影响。
由于ARM64支持更多类型的page size和hugepage size,用以提升软件的性能。所以用户在ARM64系统上使用jemalloc时,需要关注默认的page size和hugepage size,并根据具体需求做出相应的调整。
https://uncp.github.io/JeMalloc/
https://www.kernel.org/doc/html/latest/arm64/hugetlbpage.html
https://github.com/memkind/memkind/blob/master/jemalloc/INSTALL.md
https://github.com/jemalloc/jemalloc/issues/2178
https://github.com/jemalloc/jemalloc/blob/dev/TUNING.md
http://www.brionas.com/2017/05/25/jemalloc源码解析-核心架构-2/
https://www.kernel.org/doc/html/v4.19/admin-guide/kernel-parameters.html?highlight=hugepagesz