[转帖]一个故事看懂CPU的TLB

一个,故事,cpu,tlb · 浏览次数 : 0

小编点评

**CPU的地址翻译缓存** CPU的地址翻译缓存是一种在CPU和内存之间构建的缓存,用于加速地址翻译过程。由于地址翻译是一个非常频繁的操作,因此构建和维护缓存对于提高系统的性能至关重要。 **缓存的设计** 缓存通常分为两层:页目录表 (Page Directory Table, PDT) 和页表 (Page Table)。 * **页目录表**包含对内存中的所有页的映射关系,每页包含多个页面的地址。 * **页表**包含对物理内存页的索引,每页包含多个页号的地址。 **地址翻译过程** 1. CPU从页目录表中查找页目录地址。 2. 找到页目录地址对应的那页在页表中的位置。 3. 从页表中获取该页的地址。 4. CPU使用页目录地址和页号查找物理内存中的页。 5. 翻译结果存储在缓存中。 **分组连接** 为了降低地址翻译中页表中页数量的限制,CPU可以使用分组连接技术。分组连接允许多个页表共享相同的页目录节点。 **更新缓存** 缓存中的页表信息需要实时更新,以便缓存能及时提供最新的页地址。CPU可以通过标记或其他机制通知缓存当页表发生更新时更新缓存。 ** benefits of cache** * **加速地址翻译:**通过缓存,CPU可以快速找到所需的页,从而减少地址翻译所需的访问次数。 * **降低内存访问时间:**缓存可以将内存中的数据缓存到高速的内存中,减少从硬盘访问数据的次数。 * **降低内存使用:**缓存可以减少内存使用,因为页面可以被多个进程共享。

正文

https://www.cnblogs.com/xuanyuan/p/15347054.html

 

Hi,我是CPU一号车间的阿Q,还记得我吗,真是好久不见了~

我所在的CPU是一个八核CPU,就有八个工作车间,那运行起来速度杠杆的~

虚拟地址翻译

一大早,我们一号车间MMU(内存管理单元)部门的小黑就来到领导办公室,恰好我也在。

  

“领导,听说您同意了阿Q他们的方案,给每个车间都划拨了缓存建设预算?”

“你这小子,消息还挺灵通的。没错,内存那家伙实在太慢了,加了缓存后,不用每次都从内存读取数据,能让咱们的性能提升不少”,领导说到。

“那我们MMU部门也要申请一笔经费”,小黑说到。

领导眉头一紧,问道:“你们要申请经费干什么?”

“我们也要建设缓存”

“你们MMU部门做地址翻译工作,要缓存做什么,怕不是看领导给我们拨了款,眼红了吧?”,我在一旁说到。

小黑转过身来,看着我说道:“说我眼红,我倒是问你,你知道虚拟地址翻译的过程吗?”

这可难不倒我,以前就没少听他说过,“怎么不知道?以32位的虚拟地址为例,一个32位的虚拟地址分为三部分,分别是页目录索引、页表索引、页内偏移。翻译的时候,从CR3寄存器中取出页目录地址,根据页目录索引找到页表,再根据页表索引找到物理内存页面,最后根据页内偏移,完成寻址。我说的对吧?”

 

 

 

“嘿,你小子不错啊,记性挺好”,小黑有点不敢相信,随后又问到:“既然你知道,那我再问你,这读取一次数据,需要访问几次内存?”

我思考了一下,开始算了起来。从页目录表中读取一次,从页表中再读取一次,最后访问页面内数据再读取一次,总共就是三次。

“需要访问三次内存!”,我回答到。

小黑点了点头说道:“没错,你知道的,内存那家伙本来就慢,这每读写一个数据,都要访问内存三次,这谁顶得住啊?”

说的是啊,内存那家伙慢我是知道的,但读写一次就要折腾三回,我倒是没想过。

“就这还是32位地址的情况,我还没算64位下变成了4级页表呢,那访问内存的次数就更多了!”

“好在咱们马上就要建设缓存设施了,也不用每次都从内存读取数据,要是缓存能找到,就不用读取内存了嘛!”

“可是查页目录和页表还是得要两次啊”,小黑说到。

“要是能把地址翻译的结果也缓存起来就好,就不用每次都从内存查了”,我陷入了思考。

“你看,你跟我想到一会儿去了,所以我才向领导申请,咱们MMU部门也加上缓存,这样地址翻译变快了,咱们整个车间工作效率才高嘛!”

  

这时,领导站了起来,说道:“唉~格局要打开,光你们一号车间提高不行,得发动全厂八个车间一起。小黑,经费的问题不用担心,这事由你牵头,把其他几个车间的MMU部门负责人召集起来开个会,把你说的方案落地下去”

“没问题!”,领导这么一说,小黑高兴坏了。

地址翻译缓存

回去的路上,我又忍不住好奇,向小黑打听起来:“你们这翻译地址用的缓存,准备怎么个弄法?”

“我还没想的很成熟,只有个大概的方案”

“快给我透露一下”

“好吧,告诉你也无妨!我举个例子吧,假设要翻译的虚拟地址是0x12345678,这是一个32位的地址,前面的20位是0x12345000,经过两次查表后,定位到真实的物理页面0x00abc000,最后再加上页内偏移,翻译结果就是0x00abc678

 

 

 

“地址翻译完成后,将虚拟页编号0x12345和物理页编号0x00abc的映射关系记录起来放到缓存中”

 

“在进行地址翻译的时候,先去这个缓存里瞅一瞅,看看有没有记录过,如果有就直接用之前记录的,找不到再去内存页表中找。跟局部性原理类似,翻译过的地址,在接下来一段时间内再次用到的可能性很大,所以这个缓存是很有必要的!”,小黑非常自信的说到。

 

 

 

“听上去很不错,期待早点上马啊!”

TLB

过了几天,我打算去MMU部门转转,想看看他们的缓存搞的咋样了。

一进门,只见小黑和其他几个车间的MMU部门负责人正在紧张的讨论着,一旁的画板上画了不少条条框框的图。

 

 

“小黑老哥,你们这是在做什么呢?”

“我们正在研究这个翻译记录缓存项的存储方式呢!你来的正好,我们讨论了半天也没什么好的思路,快来帮我出出主意”

我有些好奇,问道:“什么问题把你们都难倒了?”

“就是虚拟地址翻译的结果,我们不知道怎么存了!”

“这有什么好纠结的,缓存空间就那么大,一个翻译结果就是一条记录,一条一条的存呗”

二号车间MMU负责人连连挥手,“没你想的这么简单,按照你这种存法,那在翻译地址的时候,怎么查找?难道要全部扫描一遍?”

我愣了一下,“啊这,我倒是没想这么多···不过缓存空间也不大,存不了太多翻译结果,全部扫描也还好吧?”

“那可不行,咱们CPU的目标就是要把性能优化到极致,这种方案上了,领导还不得骂死我”,小黑说到。

我想了想,“有了,给虚拟页编号取模,每个虚拟页的翻译记录只能存在缓存中固定的位置,这样不用全部扫描,一次就能定位,是不是很赞?”

小黑摇了摇头:“这个方案我们刚才也讨论过了,缓存空间有限,会导致大量的虚拟页取模后映射到同一个存储位置,就会经常冲突,也不是个好办法!”

“看来还真有点麻烦啊”,我也不自觉的皱起了眉头,陷入了思考之中。

“可不是嘛,所以我们才头疼啊”

空气突然安静,所有人都在低头沉思。

“哎,有了!”,一个念头在我脑中闪现。

“什么办法?快说说看”

“分组连接!”

“分组连接?”,众人问到。

“没错!把前面这两种方案结合一下。可以把缓存存储空间划分很多个组,全部遍历太慢,直接取模映射又容易冲突,那如果映射的结果不是一个固定的位置,而是一个分组呢?”

 

“听上去不错唉,这样既降低了冲突,遍历也只需在分组区间里进行了,工作量大大降低了,真是个好办法”

小黑和大家都一致同意了我的想法。

“那怎么分组呢,多少项为一组呢?”,有人问到。

“嗯,这个我也说不好,得做实验验证,2、4、8、16都可以试试,实践出真知嘛!”

“好,没问题,咱们下来测试下”

“我还有一个问题,你们的这个缓存项什么时候更新呢?咱们在保护模式下,不同的进程中,同一个虚拟页翻译后对应的物理页面可是不同的,你们可不要用了错误的缓存,那可就出大乱子了!”

“嗨,这还用你说,在场的各位干这份工作时间都不短了,这一点我们比你更清楚。进程切换的时候,会把新进程的页目录表基地址写到CR3寄存器中,那时候我们就会把缓存中的数据全部清掉啦!”,小黑胸有成竹的说到。

“也不用全部清掉吧,像有些内核页面,是所有进程共享的,就可以保留啊”

小黑点了点头,“有道理,看来得给地址翻译记录增加一个标记,用来标记是不是全局有效”

 

一个月后,八个车间MMU部门的缓存全部建设完成,当天便投入使用,咱们这个CPU的运行效率一下突飞猛进,这缓存的威力可真是太大了。

为了跟我们的一二级缓存相区分,小黑还给他们的地址翻译缓存取了一个响亮的名字:TLB——翻译后备缓冲区。

【完】

相关阅读

与[转帖]一个故事看懂CPU的TLB相似的内容:

[转帖]一个故事看懂CPU的TLB

https://www.cnblogs.com/xuanyuan/p/15347054.html Hi,我是CPU一号车间的阿Q,还记得我吗,真是好久不见了~ 我所在的CPU是一个八核CPU,就有八个工作车间,那运行起来速度杠杆的~ 虚拟地址翻译 一大早,我们一号车间MMU(内存管理单元)部门的小黑

[转帖]一个故事看懂CPU的SIMD技术

https://www.cnblogs.com/xuanyuan/p/16048303.html 好久不见,我叫阿Q,是CPU一号车间的员工。我所在的CPU有8个车间,也就是8个核心,咱们每个核心都可以同时执行两个线程,就是8核16线程,那速度杠杠滴。 我所在的一号车间,除了负责执行指令的我,还有负

[转帖]一个故事看懂计算机操作系统的进化史

https://www.cnblogs.com/xuanyuan/p/14749838.html 计算机 很久很久以前,有一台机器,体型巨大,每秒钟可以进行几千次的加法运算,名震一时,人类给它取了个名字:计算机。 除了加法,它还能计算平方、立方、正弦、余弦,比人类的大脑算得快多了。 许多程序慕名而来

[转帖]一口气看完45个寄存器,CPU核心技术大揭秘

https://www.cnblogs.com/xuanyuan/p/13850548.html 序言 前段时间,我连续写了十来篇CPU底层系列技术故事文章,有不少读者私信我让我写一下CPU的寄存器。 寄存器这个太多太复杂,不适合写故事,拖了很久,总算是写完了,这篇文章就来详细聊聊x86/x64架构

[转帖]Kafka故障之磁盘打满

https://www.jianshu.com/p/095e820361ae 问:磁盘打满扩容后能正常重启吗?答:不一定 要看文件格式是否损坏(log、index等)。如果损坏会报错:index file due to requirement failed: Corrupt index found,

[转帖]性能优化 YYDS - Brendan Gregg 与 Intel.com 的故事

https://www.modb.pro/db/421309 译者序 金庸笔下的《鹿鼎记》有: !! 平生不识陈近南,便称英雄也枉然 现代的认真搞技术的后端程序员,应该也有一句: !! 平生不识 Brendan Gregg,便呆 BAT 也 SoSo 从 2016 年开始,做一个 JVM 调优开始,

【转帖】GPT4All开源的聊天机器人

GPT4All是一个开源的聊天机器人,它基于LLaMA的大型语言模型训练而成,使用了大量的干净的助手数据,包括代码、故事和对话。它可以在本地运行,不需要云服务或登录,也可以通过Python或Typescript的绑定来使用。它的目标是提供一个类似于GPT-3或GPT-4的语言模型,但是更轻量化和易于

[转帖]BPF 拓荒者 —— Brendan Gregg 与 Netflix 的故事

https://www.modb.pro/db/421308 译者写在开头 在我的上一篇文章:Brendan@Intel.com[1] 中,我翻译了他与 Intel 的故事。这次,我们时光倒流一下,说说前传:Brendan Gregg 与 Netflix 的故事。 我写博客的出发点是想把自己所学所思

[转帖]从性能问题定位,扯到性能模型,再到 TCP - 都微服务云原生了,还学 TCP 干嘛系列 Part 1

https://blog.mygraphql.com/zh/posts/low-tec/network/tcp-flow-control-part1/ 引 本来想直接写理论、和实践分析的,但为了不 “赶客出門” 和不 TL;DR,还是以故事形式展开吧。语言要生动活泼。 故事的开始 话说,一次性能测试

[转帖]线上一个隐匿 Bug 的复盘

前言 之前负责的一个项目上线好久了,最近突然爆出一 Bug,最后评估影响范围将 Bug 升级成了故障,只因为影响的数据量有 10000 条左右,对业务方造成了一定的影响。 但因为不涉及到资金损失,Bug 修复后对数据进行修补,所以最终级别也是较低的。 今天和大家分享这个线上隐匿的 Bug,也好在工作