记一次 .NET 某游戏服务后端 内存暴涨分析

一次,net,游戏,服务,后端,内存,暴涨,分析 · 浏览次数 : 1335

小编点评

**代码分析** * List 无根的情况下如何快速找到 List 所属的代码块? * 在 List 无根的情况下如何快速找到 List 所属的代码块? * 如何才能在 List 无根的情况下快速找到 List 所属的代码块? **问题解答** * List 无根的情况下如何快速找到 List 所属的代码块? * 在 List 无根的情况下如何快速找到 List 所属的代码块? * 如何才能在 List 无根的情况下快速找到 List 所属的代码块? **截图** * List 无根的情况下如何快速找到 List 所属的代码块? * 在 List 无根的情况下如何快速找到 List 所属的代码块? * 如何才能在 List 无根的情况下快速找到 List 所属的代码块? **结论** * 核心点就是这里的 num++,在某些情况下会导致在 for 中出不来继而不断的 List.Add ,最终导致问题的发生。 * 在 List 无根的情况下如何快速找到 List 所属的代码块?

正文

一:背景

1. 讲故事

前几天有位朋友找到我,说他们公司的后端服务内存暴涨,而且CPU的一个核也被打满,让我帮忙看下怎么回事,一般来说内存暴涨的问题都比较好解决,就让朋友抓一个 dump 丢过来,接下来我们用 WinDbg 一探究竟。

二:WinDbg 分析

1. 到底是谁在暴涨

拿到 dump 之后,首先要判断是托管还是非托管问题,这决定了我们后续的探究方向,我们直接用 !address -summary + !dumpheap -stat 即可。


0:000> !address -summary

--- State Summary ---------------- RgnCount ----------- Total Size -------- %ofBusy %ofTotal
MEM_FREE                                212     7dfe`fb4e7000 ( 125.996 TB)           98.43%
MEM_RESERVE                             368      200`1dbd6000 (   2.000 TB)  99.82%    1.56%
MEM_COMMIT                             1741        0`e6f33000 (   3.609 GB)   0.18%    0.00%

0:000> !dumpheap -stat
Statistics:
              MT    Count    TotalSize Class Name
...
7ff9858ad8e0   409,869   258,383,328 System.Collections.Generic.Dictionary<System.Int64, xxx.xxx>+Entry[]
0225cc98e1f0   283,654   479,330,568 Free
7ff9858ab160         8 2,147,484,480 xxx.xxxUnit[]

0:000> !dumpheap -mt 7ff9858ab160
         Address               MT           Size
    022585dd26b8     7ff9858ab160             24 
    02258beb3c78     7ff9858ab160             24 
    02259f272aa8     7ff9858ab160            152 
    0225a8ae0858     7ff9858ab160            152 
    0225a8d015c8     7ff9858ab160            152 
    0225a91da130     7ff9858ab160            152 
    0225a9395ad0     7ff9858ab160            152 
    022694c91020     7ff9858ab160  2,147,483,672 

Statistics:
          MT Count     TotalSize Class Name
7ff9858ab160     8 2,147,484,480 xxx.xxxUnit[]
Total 8 objects, 2,147,484,480 bytes

从卦象看,3.6G 的提交内存,xxx.xxxUnit[] 就占用了 2.1G,可以确定当前是托管内存暴涨,并且也看到了内存都被 022694c91020 这个对象给吃掉了,接下来就是看下这个对象到底被谁持有着? 使用 !gcroot 即可。


0:000> !gcroot 022694c91020  
Caching GC roots, this may take a while.
Subsequent runs of this command will be faster.

Found 0 unique roots.

我去,从卦中看当前的 022694c91020 没有引用根,也就表明这个对象应该会在后续过程中被回收,但这里有一个问题,这个 xxx.xxxUnit[] 到底定义在代码何处呢? 知道在何处,就可以完美的解决问题。

2. 数组到底定义在何处

可以仔细想一想,xxx.xxxUnit[] 没有被 GC 回收,从侧面也表明它可能刚分配不久,并且是一个局部变量,既然是局部变量,就可以反向找到是哪一个线程分配的,如果线程栈还残留着 返回地址 信息,就可以反推出是哪一个方法,有了这个思路,接下来就可以动手挖了。

按照编码人的习惯, xxx.xxxUnit[] 肯定是某一个 List<xxxUnit> 集合,可以用内存搜索解决。


0:000> s-q 0 L?0xffffffffffffffff 022694c91020
00000225`a89530a0  00000226`94c91020 0cca3690`0cca3690

0:000> !lno 00000225`a89530a0
Before:  00000225a8953098           32 (0x20)	System.Collections.Generic.List`1[[xxx.xxxUnit, xx.xx]]
After:   00000225a89530b8         1224 (0x4c8)	Free
Heap local consistency confirmed.

从卦中看,果然用的是一个 List<xxx.xxxUnit> 集合,万事开头难,接下来继续反向搜索,如果线程栈还有残留的话,就可以找到它所属的线程栈。


0:000> s-q 0 L?0xffffffffffffffff 00000225a8953098
0000004c`417ecd98  00000225`a8953098 00000005`00000000
0000004c`417eceb8  00000225`a8953098 0cca3695`00000000
00000225`f1070180  00000225`a8953098 00000225`d7d287f8
00000225`f10701e0  00000225`a8953098 00000225`d7d287f8

0:000> !address 0000004c`417ecd98

Usage:                  Stack
Base Address:           0000004c`417d1000
End Address:            0000004c`417f0000
Region Size:            00000000`0001f000 ( 124.000 kB)
State:                  00001000          MEM_COMMIT
Protect:                00000004          PAGE_READWRITE
Type:                   00020000          MEM_PRIVATE
Allocation Base:        0000004c`41670000
Allocation Protect:     00000004          PAGE_READWRITE
More info:              ~0k


Content source: 1 (target), length: 3268

从卦中的 More info: 信息来看,它是属于 0 号线程,如果你不相信的话,可以拿 417d1000 去内存段验证下,输出如下:


0:000> !address -f:Stack

        BaseAddress      EndAddress+1        RegionSize     Type       State                 Protect             Usage
--------------------------------------------------------------------------------------------------------------------------
      4c`41670000       4c`417cc000        0`0015c000 MEM_PRIVATE MEM_RESERVE                                    Stack      [~0; ec8.1584]
      4c`417cc000       4c`417d1000        0`00005000 MEM_PRIVATE MEM_COMMIT  PAGE_READWRITE | PAGE_GUARD        Stack      [~0; ec8.1584]
      4c`417d1000       4c`417f0000        0`0001f000 MEM_PRIVATE MEM_COMMIT  PAGE_READWRITE                     Stack      [~0; ec8.1584]

既然找到了是 0 号线程,接下来可以用 !clrstack 观察下,奇怪的是 0 号线程啥都没有,我怀疑这个 dump 抓的有问题,可以截图为证。

看不到任何线程栈信息,这就难搞了,接下来的路在何方呢?

3. 还有希望吗

作为调试人,一定要在绝望中寻找希望,突破口就是考验线程栈布局的理解,可以在栈上往小地址找,会找到子函数的返回地址(returnAddress),即类似的格式: 0x00007ffxxxxxx,这个地址和 List<xxx.xxxUnit> 都同属一个方法,如果不清楚的话画个简图如下:

如图中所述找到 子方法 ReturnAddress 地址值即可,接下来使用windbg 的 dqs 命令外加 !ip2md 观察方法名即可。


0:000> dqs 0000004c`417ecd98 L-50
0000004c`417ecb18  0000004c`417ed678
0000004c`417ecb20  00000225`b9e78518
0000004c`417ecb28  00007ff9`85f3f861
0000004c`417ecb30  00000225`ba22b8c0
0000004c`417ecb38  0000001a`00000027
0000004c`417ecb40  00000225`00000027
0000004c`417ecb48  00000225`84aef0f8
...
0000004c`417ecd88  0000001a`00000000
0000004c`417ecd90  00000225`82278a68

0:000> !ip2md 00007ff9`85f3f861
MethodDesc:   00007ff983ef1af0
Method Name:          xxx.xxx.xxxRange(xxx,xxx,xxx,xxx)
Class:                00007ff983ef1a58
MethodTable:          00007ff983ef1b70
mdToken:              0000000006000A47
Module:               00007ff983d9c060
IsJitted:             yes
Current CodeAddr:     00007ff985f3f160
Version History:
  ILCodeVersion:      0000000000000000
  ReJIT ID:           0
  IL Addr:            00000225ef226c48
     CodeAddr:           00007ff985f3f160  (MinOptJitted)
     NativeCodeVersion:  0000000000000000

在卦中获取到这些信息之后,接下来看下 xxx.xxx.xxxRange 中是否有 List<xxxUnit> 集合,为什么高达 2个G,经过仔细研读代码,终于发现了问题,截图如下:

从图中看,核心点就是这里的 num++,在某些情况下会导致在 for 中出不来继而不断的 List.Add ,最终导致问题的发生。

再回头结合朋友说的内存暴涨,伴随一个 CPU 核心被打满,完全就可以解释了。

三:总结

这是一个比较隐晦的逻辑bug导致的内存暴涨,如果仅仅从代码层面去分析,相信你可能要花费好久的时间,从高级调试的角度看,在 List 无根的情况下如何快速的找到 List 所属的代码块,也是对基础知识的一个考验。
图片名称

与记一次 .NET 某游戏服务后端 内存暴涨分析相似的内容:

记一次 .NET 某游戏服务后端 内存暴涨分析

## 一:背景 ### 1. 讲故事 前几天有位朋友找到我,说他们公司的后端服务内存暴涨,而且CPU的一个核也被打满,让我帮忙看下怎么回事,一般来说内存暴涨的问题都比较好解决,就让朋友抓一个 dump 丢过来,接下来我们用 WinDbg 一探究竟。 ## 二:WinDbg 分析 ### 1. 到底是

记一次 .NET 某游戏网站 CPU爆高分析

一:背景 1. 讲故事 这段时间经常有朋友微信上问我这个真实案例分析连载怎么不往下续了,关注我的朋友应该知道,我近二个月在研究 SQLSERVER,也写了十多篇文章,为什么要研究这东西呢? 是因为在 dump 中发现有不少的问题是 SQLSERVER 端产生的,比如:遗留事务,索引缺失 ,这让我产生

记一次 .NET某游戏币自助机后端 内存暴涨分析

一:背景 1. 讲故事 前些天有位朋友找到我,说他们的程序内存会偶发性暴涨,自己分析了下是非托管内存问题,让我帮忙看下怎么回事?哈哈,看到这个dump我还是非常有兴趣的,居然还有这种游戏币自助机类型的程序,下次去大玩家看看他们出币的机器后端是不是C#写的?由于dump是linux上的程序,刚好win

记一次 .NET某上位视觉程序 离奇崩溃分析

一:背景 1. 讲故事 前段时间有位朋友找到我,说他们有一个崩溃的dump让我帮忙看下怎么回事,确实有太多的人在网上找各种故障分析最后联系到了我,还好我一直都是免费分析,不收取任何费用,造福社区。 话不多说,既然有 dump 来了,那就上 windbg 说话吧。 二:WinDbg 分析 1. 为什么

记一次 .NET某酒业业务系统 崩溃分析

一:背景 1. 讲故事 前些天有位朋友找到我,说他的程序每次关闭时就会自动崩溃,一直找不到原因让我帮忙看一下怎么回事,这位朋友应该是第二次找我了,分析了下 dump 还是挺经典的,拿出来给大家分享一下吧。 二:WinDbg 分析 1. 为什么会崩溃 找崩溃原因比较简单,用 !analyze -v 命

记一次 .NET某网络边缘计算系统 卡死分析

一:背景 1. 讲故事 早就听说过有什么 网络边缘计算,这次还真给遇到了,有点意思,问了下 chatgpt 这是干嘛的 ? 网络边缘计算是一种计算模型,它将计算能力和数据存储位置从传统的集中式数据中心向网络边缘的用户设备、传感器和其他物联网设备移动。这种模型的目的是在接近数据生成源头的地方提供更快速

记一次 .NET某机械臂上位系统 卡死分析

一:背景 1. 讲故事 前些天有位朋友找到我,说他们的程序会偶发性的卡死一段时间,然后又好了,让我帮忙看下怎么回事?窗体类的程序解决起来相对来说比较简单,让朋友用procdump自动抓一个卡死时的dump,拿到dump之后,上 windbg 说话。 二:WinDbg 分析 1. 主线程在做什么 要想

记一次 .NET某工厂报警监控设置 崩溃分析

一:背景 1. 讲故事 前些天有位朋友在微信上丢了一个崩溃的dump给我,让我帮忙看下为什么出现了崩溃,在 Windows 的事件查看器上显示的是经典的 访问违例 ,即 c0000005 错误码,不管怎么说有dump就可以上windbg开干了。 二:WinDbg 分析 1. 程序为谁崩溃了 在 Wi

记一次 .NET某工控视觉自动化系统 卡死分析

一:背景 1. 讲故事 今天分享的dump是训练营里一位学员的,从一个啥也不会到现在分析的有模有样,真的是看他成长起来的,调试技术学会了就是真真实实自己的,话不多说,上windbg说话。 二:WinDbg 分析 1. 为什么会卡死 这位学员是从事工控大类下的视觉自动化,也是目前.NET的主战场,这个

记一次 .NET某质量检测中心系统 崩溃分析

一:背景 1. 讲故事 这些天有点意思,遇到的几个程序故障都是和Windows操作系统或者第三方组件有关系,真的有点无语,今天就带给大家一例 IIS 相关的与大家分享,这是一家国企的.NET程序,出现了崩溃急需分析。 二:WinDbg 分析 1. 为什么会崩溃 崩溃原因相对还是好找的,双击dump文