记一次 .NET某云HIS系统 CPU爆高分析

打印 上一主题 下一主题

主题 1692|帖子 1692|积分 5076

一:背景

1. 讲故事

年前有位朋友找到我,说他们的系统会偶发性的CPU爆高,偶然候是爆高几十秒,偶然候高达一分多钟,自己有一点分析基础,但还是没找到原因,让我帮助看下怎么回事?

二:CPU爆高分析

1. CPU 真的爆高吗

还是那句话,一定要相信数据,不要被别人带偏,利用 !tp 和 !cpuid 观察下CPU的利用率和年老的实力。
  1. 0:232> !tp
  2. CPU utilization: 59%
  3. Worker Thread: Total: 77 Running: 5 Idle: 59 MaxLimit: 32767 MinLimit: 64
  4. Work Request in Queue: 0
  5. --------------------------------------
  6. Number of Timers: 2
  7. --------------------------------------
  8. Completion Port Thread:Total: 3 Free: 3 MaxFree: 128 CurrentLimit: 3 MaxLimit: 1000 MinLimit: 64
  9. 0:232> !cpuid
  10. CP  F/M/S  Manufacturer     MHz
  11. 0  6,15,11 <unavailable>   2195
  12. 1  6,15,11 <unavailable>   2195
  13. ...
  14. 63  6,15,11 <unavailable>   2195
复制代码
从卦中数据看,虽然没有朋友说的100%,但针对64核的场景下把CPU干到59%也是需要思考的,起码有 38 个核被打满了。
2. 到底发生了什么

我的调试训练营里的朋友都知道,我绘制过CPU爆高的分析套路,所以先看下有没有GC触发,利用 !t -special 观察是否有 SuspendEE 标记,效果发现没有,但这里要注意了,没有不代表GC没触发,所以稳一点的做法就是观察每一个线程的调用栈,利用 ~*k观察,截图如下:

从调用栈来看,当前有 21个线程正在backgroundgc 的 SetFree 方法中,即将收集到的垃圾对象点掉,从履历上来说,虽然 bgc 是属于 2代,但由它引发的 cpu 爆高,我还真没遇见过。
接下来的路在那边呢?利用兜底的方法 ~*e !clrstack 观察下每个线程都在做什么,毕竟CPU的爆高都是 线程 抬起来的。
  1. OS Thread Id: 0x57cc (247)
  2.         Child SP               IP Call Site
  3. 000000fb8187ae98 00007ffa9683f94a [HelperMethodFrame: 000000fb8187ae98]
  4. 000000fb8187afe0 00007ffa35808441 CSRedis.CSRedisClient+c.<.ctor>b__38_6()
  5. 000000fb8187b050 00007ffa35808368 CSRedis.CSRedisClient.DeserializeObject[[System.__Canon, mscorlib]](System.String)
  6. 000000fb8187b170 00007ffa3580807e CSRedis.CSRedisClient.DeserializeRedisValueInternal[[System.__Canon, mscorlib]](Byte[])
  7. 000000fb8187b540 00007ffa3582a605 CSRedis.CSRedisClient.HGet[[System.__Canon, mscorlib]](System.String, System.String)
  8. 000000fb8187b5d0 00007ffa3582a3ee xxx.RedisCoreHelper.HGet[[System.__Canon, mscorlib]](System.String, System.String)
  9. ...
  10. 000000fb8187b780 00007ffa367890e8 xxx.ProcessOrder4Print(...)
  11. 000000fb621bbc10 00007ffa3677bbd2 xxx.getOrderPrintData(...)
  12. ...
  13. 000000fb621bdcc0 00007ffa353be227 System.Web.Http.WebHost.HttpControllerHandler.ProcessRequestAsyncCore(System.Web.HttpContextBase)
  14. ...
  15. 000000fb621beb10 00007ffa354623ae DomainNeutralILStubClass.IL_STUB_PInvoke(IntPtr, System.Web.RequestNotificationStatus ByRef)
  16. 000000fb621bebd0 00007ffa35150221 System.Web.Hosting.PipelineRuntime.ProcessRequestNotificationHelper(IntPtr, IntPtr, IntPtr, Int32)
  17. 000000fb621bed70 00007ffa3514f8c3 System.Web.Hosting.PipelineRuntime.ProcessRequestNotification(IntPtr, IntPtr, IntPtr, Int32)
  18. 000000fb621bedb0 00007ffa3514f1d2 DomainNeutralILStubClass.IL_STUB_ReversePInvoke(Int64, Int64, Int64, Int32)
  19. 000000fb621bef88 00007ffa93802463 [ContextTransitionFrame: 000000fb621bef88]
  20. OS Thread Id: 0x180 (248)
  21.         Child SP               IP Call Site
  22. GetFrameContext failed: 1
  23. 0000000000000000 0000000000000000
  24. OS Thread Id: 0x3f54 (249)
  25.         Child SP               IP Call Site
  26. GetFrameContext failed: 1
  27. 0000000000000000 0000000000000000
  28. OS Thread Id: 0x2b00 (250)
  29.         Child SP               IP Call Site
  30. GetFrameContext failed: 1
  31. 0000000000000000 0000000000000000
  32. OS Thread Id: 0x6cbc (251)
  33. Unable to walk the managed stack. The current thread is likely not a
  34. managed thread. You can run !threads to get a list of managed threads in
  35. the process
  36. Failed to start stack walk: 80070057
  37. ...
复制代码
通览卦中数据,只有 4 个线程有托管栈,都和 getOrderPrintData 方法有关,这就很让人无语了,即使最坏环境下 4 个线程死循环,也就占用区区占用4个逻辑核,怎么滴也不会导致目前的现状。。。
3. 敢问路在何方

到这里就很难分析了,需要考察调试者的思维缜密性。。。 既然 CPU 能被短时打爆,目前来看也只有后台GC默认配备的 64个bgc线程能做到,正常环境下它的性格很温和,肯定遭到了一些不为人知的打压,再结合23个线程都在 SetFree,冥冥之中感觉它要点掉的东西太多了?让 bgc 线程成了 CPU 密集性 操纵,有些朋友应该知道 后台GC 有一个特征就是并发性,即 工作线程 和 bgc 线程可以同时运行,刚才用 !t -special 没有找到 SuspendEE,也正说明白这一点,接下来的调查方向就是观察谁在猛烈的丢垃圾,回到 getOrderPrintData 方法上来,观察这个调用栈可以发现是一个 http 哀求,首先用 !whttp 观察下 http 哀求环境。
  1. 0:247> !whttp
  2. HttpContext    Thread Time Out Running  Status Verb     Url
  3. ...
  4. 0:247> !whttp
  5. HttpContext    Thread Time Out Running  Status Verb     Url
  6. 000002d9f6f5b330  225 00:01:50 00:01:08    200 POST     http://xxxx/getOrderPrintData
  7. 000002dcb6c9d8c0  247 00:01:50 00:01:08    200 POST     http://xxxx/getOrderPrintData
  8. 000002e4f700a8e0  260 00:01:50 00:01:03    200 POST     http://xxxx/getOrderPrintData
  9. 000002e6b6fcc1d0  227 00:01:50 00:01:03    200 POST     http://xxxx/getOrderPrintData
  10. ...
  11. 25 HttpContext object(s) found matching criteria
  12. You may also be interested in
  13. ================================
  14. Dump HttpRuntime info: !wruntime
复制代码
从卦中看到了4个 getOrderPrintData 哀求,而且目前耗时 1分50秒 都没有处理完,好奇心马上就起来了,到底在干什么奇葩逻辑?将 getOrderPrintData 方法的逻辑模糊如下:
  1. public ApiResponse<xxxxPrintVO> getOrderPrintData(xxxOrder xxxOrder)
  2. {
  3.         xxxxPrintVO xxxPrintVO = new xxxxPrintVO();
  4.     ...
  5.         List<xxxOrder> list2 = (from p in DbContext.db.Queryable<xxxOrder>().Where(xxxxOrder.buildQuery().ToExpression())
  6.                 orderby p.SORT_NO
  7.                 select p).ToList();
  8.         IEnumerable<IGrouping<string, xxxOrder>> enumerable = from p in list2
  9.                 group p by p.COMB_ID;
  10.         foreach (IGrouping<string,xxxOrder> item in enumerable)
  11.     {
  12.         ...  //大量的临时对象
  13.     }
  14.     ProcessOrder4Print(orderType, list2, ref pageOrders);
  15. }
  16. private void ProcessOrder4Print(xxx, List<xxxOrder> orderList,xxx)
  17. {
  18.         foreach (MedIpOrder order in orderList)
  19.         {
  20.         ...  //大量的临时对象
  21.     }
  22. }
复制代码
结合内存的实时环境,发现问题出在了这个 list2 上,居然有高达 10w+ 个,输出如下:
  1. 0:247> !do 000002dcb6cd2368
  2. Name:        System.Collections.Generic.List`1[[xxxIpOrder, xxx]]
  3. MethodTable: 00007ffa352a6150
  4. EEClass:     00007ffa916cacb0
  5. Size:        40(0x28) bytes
  6. File:        C:\Windows\Microsoft.Net\assembly\GAC_64\mscorlib\v4.0_4.0.0.0__b77a5c561934e089\mscorlib.dll
  7. Fields:
  8.               MT    Field   Offset                 Type VT     Attr            Value Name
  9. 00007ffa91cd2f60  400187c        8     System.__Canon[]  0 instance 000002e9369a0468 _items
  10. 00007ffa91ca9428  400187d       18         System.Int32  1 instance           106929 _size
  11. 00007ffa91ca9428  400187e       1c         System.Int32  1 instance           106929 _version
  12. 00007ffa91ca6fd8  400187f       10        System.Object  0 instance 0000000000000000 _syncRoot
  13. 00007ffa91cd2f60  4001880        8     System.__Canon[]  0   static  <no information>
复制代码
难怪实行快2分钟还没实行完? 相信其他3个线程的 list2 也不少,这么多的循环得要产生多少个瞬时临时对象,难怪导致后台GC直接变成了CPU密集型操纵。
接下来就是告诉朋友为什么要从 DbContext 中捞 10w 条数据?朋友经太过析说是 UI上的参数问题,后台没有过滤掉,导致把数据全部给捞出来了,无语了。。。
三:总结

这次CPU爆高事故属于典型的 蝴蝶效应,用 4 个线程间接的把64核的CPU直接干爆,这种问题有一定的隐蔽性,需要调试者对 后台GC 有一个总体的认识,否则还真不好解决,最后来一张 引发龙卷风 的小蝴蝶。。。


免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。
继续阅读请点击广告

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有账号?立即注册

x
回复

使用道具 举报

0 个回复

倒序浏览

快速回复

您需要登录后才可以回帖 登录 or 立即注册

本版积分规则

耶耶耶耶耶

论坛元老
这个人很懒什么都没写!
快速回复 返回顶部 返回列表