记一次 .NET 某药材管理系统 卡死分析

一次,net,药材,管理系统,卡死,分析 · 浏览次数 : 2799

小编点评

**这次不稳定的事故可能由 SQLSERVER 层面导致的问题** **直观推测:** * SQLSERVER 层面可能存在锁等待问题,因为锁等待会阻塞进程,导致并发度降低。 * 在卡住的时候,查下锁相关的 DMV视图,是不是出现了锁等待? * 我们可以尝试加上 nolock 尝试一下,看看能不能缓解锁等待问题。 **证据挖取:** * 用 windbg 在 SQLSERVER 层面挖到锁相关的 DMV视图的锁等待相关数据。 * 可以记录卡住过程,查下锁相关的 DMV视图的锁等待相关数据。 * 我们可以尝试加上 nolock 尝试一下,看看能不能缓解锁等待问题。 **总结:** * 首先,需要确认 SQLSERVER 层面是否存在锁等待问题。 * 我们可以尝试在卡住的时候,查下锁相关的 DMV视图的锁等待相关数据。 * 我们可以尝试加上 nolock 尝试一下,看看能不能缓解锁等待问题。

正文

一:背景

1. 讲故事

前段时间有位朋友找到我,说他们在查询报表的时候发现程序的稳定性会受到影响,但服务器的内存,CPU都是正常的,让我帮忙看下怎么回事,问了下程序的稳定性指的是什么?指的是卡死,那既然是卡死,就抓一个卡死的dump吧。

二:Windbg 分析

1. 当前是什么程序

不同的程序类型分析卡死的思路是不一样的,如果是 WKS模式 可以看下主线程,如果是 SRV模式 就要看其他线程了,接下来用 !eeversion 验证下。


0:000> !eeversion
5.0.521.16609 free
5,0,521,16609 @Commit: 2f740adc1457e8a28c1c072993b66f515977eb51
Server mode with 16 gc heaps
SOS Version: 6.0.5.7301 retail build

从卦中看当前是 .NET5 写的 Web网站,那就需要看其他线程都在做什么了。

2. 不稳定因素在哪里

朋友前面也说了查询报表的时候导致程序不稳定,因为这个所以要找SQL查询的 ,大概率问题在数据库端,接下来使用 ~*e !clrstack 观察所有线程栈,输出如下:


OS Thread Id: 0x24e8 (60)
        Child SP               IP Call Site
000000C2E3BFC700 00007ffd72955d04 [InlinedCallFrame: 000000c2e3bfc700] Microsoft.Data.SqlClient.SNINativeMethodWrapper.SNIReadSyncOverAsync(Microsoft.Data.SqlClient.SNIHandle, IntPtr ByRef, Int32)
000000C2E3BFC700 00007ffce5e00264 [InlinedCallFrame: 000000c2e3bfc700] Microsoft.Data.SqlClient.SNINativeMethodWrapper.SNIReadSyncOverAsync(Microsoft.Data.SqlClient.SNIHandle, IntPtr ByRef, Int32)
000000C2E3BFC6D0 00007ffce5e00264 ILStubClass.IL_STUB_PInvoke(Microsoft.Data.SqlClient.SNIHandle, IntPtr ByRef, Int32)
000000C2E3BFC7A0 00007ffce7a3ca1f Microsoft.Data.SqlClient.TdsParserStateObjectNative.ReadSyncOverAsync(Int32, UInt32 ByRef)
000000C2E3BFC7F0 00007ffce7a3c72c Microsoft.Data.SqlClient.TdsParserStateObject.ReadSniSyncOverAsync()
000000C2E3BFC880 00007ffce7a3c60b Microsoft.Data.SqlClient.TdsParserStateObject.TryReadNetworkPacket()
000000C2E3BFC8C0 00007ffce7a3c53e Microsoft.Data.SqlClient.TdsParserStateObject.TryPrepareBuffer()
000000C2E3BFC900 00007ffce79de54e Microsoft.Data.SqlClient.TdsParserStateObject.TryReadByte(Byte ByRef)
000000C2E3BFC940 00007ffce5e06bce Microsoft.Data.SqlClient.TdsParser.TryRun(Microsoft.Data.SqlClient.RunBehavior, Microsoft.Data.SqlClient.SqlCommand, Microsoft.Data.SqlClient.SqlDataReader, Microsoft.Data.SqlClient.BulkCopySimpleResultSet, Microsoft.Data.SqlClient.TdsParserStateObject, Boolean ByRef)
000000C2E3BFCAE0 00007ffce5e38d51 Microsoft.Data.SqlClient.SqlDataReader.TryConsumeMetaData()
000000C2E3BFCB50 00007ffce7a94f77 Microsoft.Data.SqlClient.SqlDataReader.get_MetaData()
....

OS Thread Id: 0x854 (72)
        Child SP               IP Call Site
000000C2E66BBE70 00007ffd72955d04 [InlinedCallFrame: 000000c2e66bbe70] Microsoft.Data.SqlClient.SNINativeMethodWrapper.SNIReadSyncOverAsync(Microsoft.Data.SqlClient.SNIHandle, IntPtr ByRef, Int32)
000000C2E66BBE70 00007ffce5e00264 [InlinedCallFrame: 000000c2e66bbe70] Microsoft.Data.SqlClient.SNINativeMethodWrapper.SNIReadSyncOverAsync(Microsoft.Data.SqlClient.SNIHandle, IntPtr ByRef, Int32)
000000C2E66BBE40 00007ffce5e00264 ILStubClass.IL_STUB_PInvoke(Microsoft.Data.SqlClient.SNIHandle, IntPtr ByRef, Int32)
000000C2E66BBF10 00007ffce7a3ca1f Microsoft.Data.SqlClient.TdsParserStateObjectNative.ReadSyncOverAsync(Int32, UInt32 ByRef)
000000C2E66BBF60 00007ffce7a3c72c Microsoft.Data.SqlClient.TdsParserStateObject.ReadSniSyncOverAsync()
000000C2E66BBFF0 00007ffce7a3c60b Microsoft.Data.SqlClient.TdsParserStateObject.TryReadNetworkPacket()
000000C2E66BC030 00007ffce7a3c53e Microsoft.Data.SqlClient.TdsParserStateObject.TryPrepareBuffer()
000000C2E66BC070 00007ffce79de54e Microsoft.Data.SqlClient.TdsParserStateObject.TryReadByte(Byte ByRef)
000000C2E66BC0B0 00007ffce5e06bce Microsoft.Data.SqlClient.TdsParser.TryRun(Microsoft.Data.SqlClient.RunBehavior, Microsoft.Data.SqlClient.SqlCommand, Microsoft.Data.SqlClient.SqlDataReader, Microsoft.Data.SqlClient.BulkCopySimpleResultSet, Microsoft.Data.SqlClient.TdsParserStateObject, Boolean ByRef)
000000C2E66BC250 00007ffce5e38d51 Microsoft.Data.SqlClient.SqlDataReader.TryConsumeMetaData()
000000C2E66BC2C0 00007ffce7a94f77 Microsoft.Data.SqlClient.SqlDataReader.get_MetaData()
...

从卦中看当前有两个线程在请求SQLSERVER,并在等待返回结果,接下来问题就来了,既然说卡死肯定花费了不少时间,所以对当前是什么 SQL 产生了好奇,我们可以提取下 72 号线程的 SqlCommand 对象,看看是什么sql?


0:072> !dso
OS Thread Id: 0x854 (72)
RSP/REG          Object           Name
000000C2E66BBDC8 00000216eafe2520 Microsoft.Data.SqlClient.SqlCommand

0:072> !DumpObj /d 00000216eafe2520
Name:        Microsoft.Data.SqlClient.SqlCommand
00007ffce4027a90  400046d       18        System.String  0 instance 00000216eafe1a60 _commandText

然后 do 一下 _commandText 就可以了,去敏之后的SQL如下;


SELECT xxx
FROM [xxxxxx] AS [d]
LEFT JOIN [xxxDrugs] AS [n]
    ON [d].[DrugId] = [n].[xxx]
WHERE [d].[xxxId] = '4f1be71f-2edb-4a5c-87dc-9ab3b981cbca'

上面的sql也就一个简单的表关联,但我的职业敏感性告诉我,这条sql应该就是没加 nolock 导致在 SQLSERVER 层面一直获取不到 S 锁,获取不到 S 锁的原因应该就是 报表 间接导致很多的意向U和意向X在相关表上成了 U 和 X 锁。

3. 到底卡了多久

怀疑是 SQLSERVER 层面的问题后,接下来还要找证据验证一下,也就是当前这条SQL到底阻塞了多久? 那怎么在 Dump 中观察 SQL 的请求时间呢?这就需要考察你对 SQLConnection 类的理解了,其中有一个字段 SqlConnection._innerConnection._createTime._dateData 就记录了 SQL 的开始时间。


0:072> !DumpObj /d 00000216eaf85fa0
Name:        Microsoft.Data.SqlClient.SqlConnection
00007ffce61bb9f8  40004c6       90 ...onnectionInternal  0 instance 00000215cad017c0 _innerConnection

0:072> !DumpObj /d 00000215cad017c0
Name:        Microsoft.Data.SqlClient.SqlInternalConnectionTds
00007ffce42c7670  4000174       48      System.DateTime  1 instance 00000215cad01808 _createTime

0:072> !DumpVC /d 00007ffce42c7670 00000215cad01808
Name:        System.DateTime
Fields:
              MT    Field   Offset                 Type VT     Attr            Value Name
00007ffce3f6cf98  4000258        0        System.UInt64  1 instance 5249873640594058230 _dateData

卦中的 0n5249873640594058230 怎么转化为具体时间呢?这又是考验你的基础知识了,这个数的前两位bit记录的是 时区信息 ,比如本地还是UTC,参考代码如下:


        internal DateTime(long ticks, DateTimeKind kind, bool isAmbiguousDst)
        {
            if (ticks < 0 || ticks > 3155378975999999999L)
            {
                throw new ArgumentOutOfRangeException("ticks", SR.ArgumentOutOfRange_DateTimeBadTicks);
            }
            _dateData = (ulong)ticks | (isAmbiguousDst ? 13835058055282163712uL : 9223372036854775808uL);
        }

上面的两个超大十进制数转化为二进制即高位的 11 和 10 开头,也就是十六进制开头的 c 和 8 。


0:072> ? 0n13835058055282163712
Evaluate expression: -4611686018427387904 = c0000000`00000000

0:072> ? 0n9223372036854775808
Evaluate expression: -9223372036854775808 = 80000000`00000000

那怎么将 _dateData 转成 ticks 呢?在源码中也有说明,即抹掉二进制中的高二位。


        internal long InternalTicks => (long)(_dateData & 0x3FFFFFFFFFFFFFFFL);

有了这些前置基础,接下来就可以用 windbg 转换了。


0:072> ? 0n5249873640594058230 & 0x3FFFFFFFFFFFFFFF
Evaluate expression: 638187622166670326 = 08db4c42`d74babf6

0:072> .formats 08db4c42`d74babf6
Evaluate expression:
  Hex:     08db4c42`d74babf6
  Decimal: 638187622166670326
  Decimal (unsigned) : 638187622166670326
  Octal:   0043332304132722725766
  Binary:  00001000 11011011 01001100 01000010 11010111 01001011 10101011 11110110
  Chars:   ..LB.K..
  Time:    Thu May  4 09:56:56.667 3623 (UTC + 8:00)
  Float:   low -2.23939e+014 high 1.31985e-033
  Double:  5.29119e-266

0:072> .time
Debug session time: Thu May  4 09:58:39.000 2023 (UTC + 8:00)
System Uptime: 40 days 10:15:42.713
Process Uptime: 0 days 16:55:48.000
  Kernel time: 0 days 0:01:54.000
  User time: 0 days 0:39:40.000

从卦中看,SQL 的请求时间是 09:56:56 ,Dump抓取时间为 09:58:39,也就表示当前这条 SQL 已经等待了 1分43秒,这确实是不可容忍的。

从 dump 中挖到这些信息后,让朋友重点观察下 SQLSERVER 端,比如在卡住的时候查下锁相关的 DMV视图,是不是出现了锁等待,也可以加上 nolock 尝试一下。

最终朋友在 SQLSERVER 层面修改了 max degree of parallelism 来提高并发度,说情况缓解了很多,这其中细节,熟悉 SQLSERVER 的朋友可以留言解答一下哈。

三:总结

这次不稳定的事故从直观上就能猜到可能是 SQLSERVER 层面导致的问题,但需要证据,所以我们需要用 windbg 在这小小的花园里,挖呀挖呀挖! 让朋友对外有数据层面的说服力。

图片名称

与记一次 .NET 某药材管理系统 卡死分析相似的内容:

记一次 .NET 某药材管理系统 卡死分析

## 一:背景 ### 1. 讲故事 前段时间有位朋友找到我,说他们在查询报表的时候发现程序的稳定性会受到影响,但服务器的内存,CPU都是正常的,让我帮忙看下怎么回事,问了下程序的稳定性指的是什么?指的是卡死,那既然是卡死,就抓一个卡死的dump吧。 ## 二:Windbg 分析 ### 1. 当前

记一次 .NET某上位视觉程序 离奇崩溃分析

一:背景 1. 讲故事 前段时间有位朋友找到我,说他们有一个崩溃的dump让我帮忙看下怎么回事,确实有太多的人在网上找各种故障分析最后联系到了我,还好我一直都是免费分析,不收取任何费用,造福社区。 话不多说,既然有 dump 来了,那就上 windbg 说话吧。 二:WinDbg 分析 1. 为什么

记一次 .NET某酒业业务系统 崩溃分析

一:背景 1. 讲故事 前些天有位朋友找到我,说他的程序每次关闭时就会自动崩溃,一直找不到原因让我帮忙看一下怎么回事,这位朋友应该是第二次找我了,分析了下 dump 还是挺经典的,拿出来给大家分享一下吧。 二:WinDbg 分析 1. 为什么会崩溃 找崩溃原因比较简单,用 !analyze -v 命

记一次 .NET某网络边缘计算系统 卡死分析

一:背景 1. 讲故事 早就听说过有什么 网络边缘计算,这次还真给遇到了,有点意思,问了下 chatgpt 这是干嘛的 ? 网络边缘计算是一种计算模型,它将计算能力和数据存储位置从传统的集中式数据中心向网络边缘的用户设备、传感器和其他物联网设备移动。这种模型的目的是在接近数据生成源头的地方提供更快速

记一次 .NET某机械臂上位系统 卡死分析

一:背景 1. 讲故事 前些天有位朋友找到我,说他们的程序会偶发性的卡死一段时间,然后又好了,让我帮忙看下怎么回事?窗体类的程序解决起来相对来说比较简单,让朋友用procdump自动抓一个卡死时的dump,拿到dump之后,上 windbg 说话。 二:WinDbg 分析 1. 主线程在做什么 要想

记一次 .NET某工厂报警监控设置 崩溃分析

一:背景 1. 讲故事 前些天有位朋友在微信上丢了一个崩溃的dump给我,让我帮忙看下为什么出现了崩溃,在 Windows 的事件查看器上显示的是经典的 访问违例 ,即 c0000005 错误码,不管怎么说有dump就可以上windbg开干了。 二:WinDbg 分析 1. 程序为谁崩溃了 在 Wi

记一次 .NET某游戏币自助机后端 内存暴涨分析

一:背景 1. 讲故事 前些天有位朋友找到我,说他们的程序内存会偶发性暴涨,自己分析了下是非托管内存问题,让我帮忙看下怎么回事?哈哈,看到这个dump我还是非常有兴趣的,居然还有这种游戏币自助机类型的程序,下次去大玩家看看他们出币的机器后端是不是C#写的?由于dump是linux上的程序,刚好win

记一次 .NET某工控视觉自动化系统 卡死分析

一:背景 1. 讲故事 今天分享的dump是训练营里一位学员的,从一个啥也不会到现在分析的有模有样,真的是看他成长起来的,调试技术学会了就是真真实实自己的,话不多说,上windbg说话。 二:WinDbg 分析 1. 为什么会卡死 这位学员是从事工控大类下的视觉自动化,也是目前.NET的主战场,这个

记一次 .NET某质量检测中心系统 崩溃分析

一:背景 1. 讲故事 这些天有点意思,遇到的几个程序故障都是和Windows操作系统或者第三方组件有关系,真的有点无语,今天就带给大家一例 IIS 相关的与大家分享,这是一家国企的.NET程序,出现了崩溃急需分析。 二:WinDbg 分析 1. 为什么会崩溃 崩溃原因相对还是好找的,双击dump文

记一次 .NET某工业设计软件 崩溃分析

一:背景 1. 讲故事 前些天有位朋友找到我,说他的软件在客户那边不知道什么原因崩掉了,从windows事件日志看崩溃在 clr 里,让我能否帮忙定位下,dump 也抓到了,既然dump有了,接下来就上 windbg 分析吧。 二:WinDbg 分析 1. 为什么崩溃在 clr 一般来说崩溃在clr