[转帖]《Linux性能优化实战》笔记(八)—— 内存是怎么工作的

linux,性能,优化,实战,笔记,内存,怎么,工作 · 浏览次数 : 0

小编点评

**一、 内存映射** * 内存映射是指将虚拟内存地址映射到物理内存地址的技术。 * 内存映射的内部被分为内核空间和用户空间两部分。 * 内存映射可以让进程很方便地访问内存,更确切地说是访问虚拟内存。 **二、 虚拟内存空间分布** * 用户空间内存被分为五种不同的内存段:代码段、数据段、堆、文件映射段和栈。 * 每个进程都有一个这么大的地址空间,所有进程的虚拟内存加起来自然要比实际的物理内存大得多。 **三、 内存分配与回收** * `malloc()` 和 `free()` 是 C 标准库提供的内存分配函数,用于分配和回收内存。 * `brk()` 用于分配小块内存,而 `mmap()` 用于分配大块内存。 **4、 内存回收** * 在应用程序用完内存后,需要调用 `free()` 或 `unmap()` 来释放不用的内存。 * 系统还会通过一系列机制来回收内存,例如回收缓存、Swap 和 OOM。

正文

一、 内存映射

我们通常所说的内存容量,指的是物理内存。物理内存也称为主存,大多数计算机用的主存都是动态随机访问内存(DRAM)。只有内核才可以直接访问物理内存。那么,进程要访问内存时,该怎么办呢?

Linux 内核给每个进程都提供了一个独立的虚拟地址空间,并且这个地址空间是连续的。这样,进程就可以很方便地访问内存,更确切地说是访问虚拟内存。

虚拟地址空间的内部又被分为内核空间和用户空间两部分,不同字长(单个 CPU 指令可以处理数据的最大长度)的处理器,地址空间的范围也不同。比如最常见的 32 位和64 位系统,我画了两张图来分别表示它们的虚拟地址空间,如下所示:

可以看出,32 位系统的内核空间占用 1G,位于最高处,剩下的 3G 是用户空间;而 64 位系统的内核空间和用户空间都是 128T,分别占据整个内存空间的最高和最低处,剩下的中间部分是未定义的。

既然每个进程都有一个这么大的地址空间,那么所有进程的虚拟内存加起来,自然要比实际的物理内存大得多。所以,并不是所有的虚拟内存都会分配物理内存,只有那些实际使用的虚拟内存才分配物理内存,并且分配后的物理内存,是通过内存映射来管理的。

内存映射,其实就是将虚拟内存地址映射到物理内存地址。为了完成内存映射,内核为每个进程都维护了一张页表,记录虚拟地址与物理地址的映射关系,如下图所示:

页表实际上存储在 CPU 的内存管理单元 MMU 中,这样,正常情况下,处理器就可以直接通过硬件,找出要访问的内存。
当进程访问的虚拟地址在页表中查不到时,系统会产生一个缺页异常,进入内核空间分配物理内存、更新进程页表,最后再返回用户空间,恢复进程的运行。

MMU 并不以字节为单位来管理内存,而是规定了一个内存映射的最小单位,也就是页,通常是 4 KB 大小。这样,每一次内存映射,都需要关联 4 KB 或者 4KB 整数倍的内存空间。

页的大小只有 4 KB ,导致的另一个问题就是,整个页表会变得非常大。比方说,仅 32 位系统就需要 100 多万个页表项(4GB/4KB),才可以实现整个地址空间的映射。为了解决页表项过多的问题,Linux 提供了两种机制,也就是多级页表和大页(HugePage)。

多级页表就是把内存分成区块来管理,将原来的映射关系改成区块索引和区块内的偏移。由于虚拟内存空间通常只用了很少一部分,那么,多级页表就只保存这些使用中的区块,这样就可以大大地减少页表的项数。Linux 用的正是四级页表来管理内存页,如下图所示,虚拟地址被分为 5 个部分,前 4 个表项用于选择页,而最后一个索引表示页内偏移。

大页,顾名思义,就是比普通页更大的内存块,常见的大小有 2MB 和 1GB。大页通常用在使用大量内存的进程上,比如 Oracle、DPDK 等。

通过这些机制,在页表的映射下,进程就可以通过虚拟地址来访问物理内存了。那么具体到一个 Linux 进程中,这些内存又是怎么使用的呢?
 

二、 虚拟内存空间分布

最上方的内核空间不用多讲,下方的用户空间内存,其实又被分成了多个不同的段。以 32 位系统为例,我画了一张图来表示它们的关系。

通过这张图你可以看到,用户空间内存,从低到高分别是五种不同的内存段

  • 只读段,包括代码和常量等。
  • 数据段,包括全局变量等。
  • 堆,包括动态分配的内存,从低地址开始向上增长。
  • 文件映射段,包括动态库、共享内存等,从高地址开始向下增长。
  • 栈,包括局部变量和函数调用的上下文等。栈的大小是固定的,一般是 8 MB
     

在这五个内存段中,堆和文件映射段的内存是动态分配的。比如说,使用 C 标准库的malloc() 或者 mmap() ,就可以分别在堆和文件映射段动态分配内存。其实 64 位系统的内存分布也类似,只不过内存空间要大得多。那么,更重要的问题来了,
内存究竟是怎么分配的呢?
 

三、 内存分配与回收

malloc() 是 C 标准库提供的内存分配函数,对应到系统调用上,有两种实现方式,即 brk()和 mmap()。

1. brk()

对小块内存(小于 128K),C 标准库使用 brk() 通过移动堆顶的位置(对应上图第三层)来分配内存。这些内存释放后并不会立刻归还系统,而是被缓存起来,这样就可以重复使用。

  • 优点:可以减少缺页异常的发生,提高内存访问效率
  • 缺点:在内存工作繁忙时,频繁的内存分配和释放会造成内存碎片

2. 内存映射 mmap()

对于大块内存(大于 128K),直接使用内存映射 mmap() 来分配,也就是在文件映射段(对应上图第四层)找一块空闲内存分配出去。

  • 优点:分配的内存会在释放时直接归还系统,所以每次 mmap 都会发生缺页异常,使内核的管理负担增大
  • 缺点:不容易有内存碎片问题

当这两种调用发生后,其实并没有真正分配内存。内存都只在首次访问时才分配,也就是通过缺页异常进入内核中,再
由内核来分配内存。Linux 以页为单位来管理内存,并且会通过相邻页的合并,减少内存碎片化。

 

3. 内存回收

在应用程序用完内存后,还需要调用 free() 或 unmap() ,来释放不用的内存。当然,系统也不会任由某个进程用完所有内存。在发现内存紧张时,系统就会通过一系列机制来回收内存:

  • 回收缓存,比如使用 LRU算法,回收最近使用最少的内存页
  • 回收不常访问的内存,把不常用的内存通过swap直接写到磁盘中
  • 杀死进程,内存紧张时系统还会通过 OOM,直接杀掉占用大量内存的进程。

Swap 其实就是把一块磁盘空间当成内存来用。它可以把进程暂时不用的数据存储到磁盘中(换出),当进程访问这些内存时,再从磁盘读取这些数据到内存中(换入)。不过通常只在内存不足时才会发生 Swap 交换,并且由于磁盘读写的速度远比内存慢,Swap 会导致严重的内存性能问题。

OOM其实是内核的一种保护机制。它监控进程的内存使用情况,并且使用 oom_score 为每个进程的内存使用情况评分:

  • 一个进程消耗的内存越大,oom_score 就越大,越容易被 OOM 杀死
  • 一个进程运行占用的 CPU 越多,oom_score 就越小。

当然,为了实际工作的需要,管理员可以通过 /proc 文件系统,手动设置进程的 oom_adj,从而调整进程的 oom_score。
oom_adj 的范围是 [-17, 15],数值越大,进程越容易被 OOM 杀死,其中 -17 表示禁止 OOM。

比如用下面的命令,可以把 sshd 进程的 oom_adj 调小为 -16,sshd 进程就不容易被 OOM 杀死

echo -16 > /proc/$(pidof sshd)/oom_adj
文章知识点与官方知识档案匹配,可进一步学习相关知识
CS入门技能树Linux入门初识Linux32621 人正在系统学习中

与[转帖]《Linux性能优化实战》笔记(八)—— 内存是怎么工作的相似的内容:

[转帖]《Linux性能优化实战》笔记(八)—— 内存是怎么工作的

一、 内存映射 我们通常所说的内存容量,指的是物理内存。物理内存也称为主存,大多数计算机用的主存都是动态随机访问内存(DRAM)。只有内核才可以直接访问物理内存。那么,进程要访问内存时,该怎么办呢? Linux 内核给每个进程都提供了一个独立的虚拟地址空间,并且这个地址空间是连续的。这样,进程就可以

[转帖]《Linux性能优化实战》笔记(七)—— CPU瓶颈快速分析及性能优化思路

相当于是前面篇章的小结 一、 CPU 性能指标 常见指标包括: 平均负载CPU 使用率(user、iowait、system、软硬中断等)进程上下文切换(自愿、非自愿)CPU 缓存的命中率 CPU 的处理速度就比内存的访问速度快得多。这样,CPU 在访问内存的时候,免不了要等待内存的响应。为了协调这

[转帖]《Linux性能优化实战》笔记(23)—— 内核线程 CPU 利用率过高,perf 与 火焰图

在排查网络问题时,我们还经常碰到的一个问题,就是内核线程的 CPU 使用率很高。比如,在高并发的场景中,内核线程 ksoftirqd 的 CPU 使用率通常就会比较高。回顾一下前面学过的 CPU 和网络模块,你应该知道,这是网络收发的软中断导致的。 要分析 ksoftirqd 这类 CPU 使用率比

[转帖]《Linux性能优化实战》笔记(六)—— Linux 软中断与对应故障分析方法

中断是系统用来响应硬件设备请求的一种机制,它会打断进程的正常调度和执行,然后调用内核中的中断处理程序来响应设备的请求。 一、 为什么要有中断 举个生活中的例子,让你感受一下中断的魅力。比如说你订了一份外卖,但是不确定外卖什么时候送到,也没有别的方法了解外卖的进度,但是,配送员送外卖是不等人的,到了你

[转帖]《Linux性能优化实战》笔记(一)—— 平均负载

最近在看极客时间的《Linux性能优化实战》课程,记录下学习内容。 一、 平均负载(Load Average) 1. 概念 我们都知道uptime命令的最后三列分别是过去 1 分钟、5 分钟、15 分钟系统的平均负载,到底平均负载是什么? 简单来说,平均负载是指单位时间内,系统处于可运行状态和不可中

[转帖]《Linux性能优化实战》笔记(24)—— 动态追踪 DTrace

使用 perf 对系统内核线程进行分析时,内核线程依然还在正常运行中,所以这种方法也被称为动态追踪技术。动态追踪技术通过探针机制来采集内核或者应用程序的运行信息,从而可以不用修改内核和应用程序的代码就获得丰富的信息,帮你分析、定位想要排查的问题。 以往,在排查和调试性能问题时,我们往往需要先为应用程

[转帖]《Linux性能优化实战》笔记(四)—— CPU 使用率

一、 节拍率与CPU时间 前一篇说到,Linux 作为一个多任务操作系统,将每个 CPU 的时间划分为很短的时间片,再通过调度器轮流分配给各个任务使用,因此造成多任务同时运行的错觉。 为了维护 CPU 时间,Linux 通过事先定义的节拍率(内核中表示为 HZ),触发时间中断,并使用全局变量 Jif

[转帖]《Linux性能优化实战》笔记(二)—— CPU 上下文切换(上)

上一篇的最后一个例子,在多个进程竞争CPU时,我们看到每个进程实际上%usr部分只有20%多,70%多是在wait,但是load远远高于单个进程使用CPU达到100%。 这让我想到之前看的RWP公开课,里面有一篇连接池管理。为什么相同的业务量,起6千个连接(进程)远远要慢于200个连接,因为绝大多数

[转帖]《Linux性能优化实战》笔记(22)—— 网络丢包问题分析

所谓丢包,是指在网络数据的收发过程中,由于种种原因,数据包还没传输到应用程序中,就被丢弃了。这些被丢弃包的数量,除以总的传输包数,也就是我们常说的丢包率。丢包率是网络性能中最核心的指标之一。丢包通常会带来严重的性能下降,特别是对 TCP 来说,丢包通常意味着网络拥塞和重传,进而还会导致网络延迟增大、

[转帖]《Linux性能优化实战》笔记(25)—— 总结:Linux 性能工具速查

一、 性能工具速查 在梳理性能工具之前,首先给你提一个问题,那就是,在什么情况下,我们才需要去查找、挑选性能工具呢? 其实在我看来,只有当你想了解某个性能指标,却不知道该怎么办的时候,才会想到,“要是有一个性能工具速查表就好了”这个问题。如果已知一个性能工具可用,我们更多会去查看这个工具的手册,找出