谈谈JSF业务线程池的大小配置

谈谈,jsf,业务,线程,大小,配置 · 浏览次数 : 17

小编点评

**JSF 业务线程池大小配置基准测试结果** **测试用例简介:** 本测试旨在评估 JSF 业务线程池的合理配置。测试用例涵盖了不同线程池类型和大小的性能测试。 **测试结果:** | 线程池类型 | 线程数 | CPU 利用率 (%) | 吞吐量 TPS | |---|---|---|---| | Fixed | 16 | 445106320.26885221636.6216166426268 | 50 | | Fixed | 200 | 410732393.445106320 | 50 | | Fixed | 400 | 400510080.0000 | 50 | **结论:** 根据测试结果,JSF 业务线程池的默认配置在并发量高的场景下存在风险。对于大多数线上生产环境中的 JSF 服务所在的服务器,推荐设置一个合理的线程数,通常在 2N 到 4N 之间的线程数范围内。 **建议:** * 在设置线程数之前,应进行性能测试以确定最佳参数。 * 考虑使用动态线程池,根据实际需求自动调整线程数量。 * 预留合理的 buffer 空间,以确保系统稳定运行。 * 结合业务需求和系统资源情况进行线程池大小的配置。

正文

1.简介

JSF业务线程池使用JDK的线程池技术,缺省情况下采用Cached模式(核心线程数20,最大线程数200)。此外,还提供了Fixed固定线程大小的模式,两种模式均可设置请求队列大小。

本文旨在通过一个简化场景(“单服务应用”)下的负载测试,为“JSF业务线程池大小配置”提供基准测试结果,并形成一些普遍适用的结论。

本文的目标读者包括需要合理配置JSF线程大小的压测工程师、开发部署运维工程师以及架构师。本文不涉及JSF服务端的其他配置项,也不针对“复合服务应用”的合理配置进行探讨。你可以利用本文提供的结论,作为设计压测用例或评估业务线程池大小的基本方法的参考,以便在实践中合理配置JSF业务线程池大小。需要注意的是,JSF业务线程池大小的合理配置应该基于高保真的负载测试结果。

“单服务应用”指应用仅包含一个提供接口,且接口中仅有一个方法。

“复合服务应用”则指应用包含多个提供接口或一个接口中含有多个方法。

2.测试用例说明

本次基准测试选取了USF3.0权限系统,将其定制化为一个单一的服务提供者,仅对该提供者的一个方法进行了测试,因此可以看作是一个“单服务应用”。测试中将CPU作为基准测试的核心资源,并考虑到JVM垃圾收集器的影响,采用了简单的测试数据以保证服务每次调用的一致性,并确保YGC具有规律性(即固定调用量会导致一次30+ms的YGC),无FGC的影响。

测试用例的设计中,所有依赖的服务资源都无限制,以确保测试过程中服务的可用率达到100%。我们的关键性能指标是TP99,即服务响应时长的99%必须小于10ms。

为了测试不同线程池模式下的性能表现,我们使用了JSF线程池的Cached和Fixed两种模式,并针对每种模式进行了多组测试,以得出在满足TP99<10ms的前提下,系统最大的负载情况。

测试应用:USF3.0权限系统(定制化处理)

测试服务:com.jd.susf.service.api.SusfPermissionService#findUserInfo,根据用户信息从Redis中查询一条数据返回的服务。

硬件配置:单台4C 8G

测试方法:在Forcebot系统采用了阶梯发压的方式对JSF业务线程池在Cached和Fixed模式下进行了系统负载测试

拟定SLA要求:服务响应时长的TP99<10ms

注:我们对USF3.0权限系统进行了定制,调整了服务提供方的配置数据,仅保留了 com.jd.susf.service.api.SusfPermissionService。

3.测试结果及分析

3.1.cached线程池的系统负载

图:JSF默认线程池(cached, threads=200)在不同并发用户数(1-200)下的系统负载图

并发用户数 TP99 吞吐量TPS CPU利用率(%)
1~23 <8ms 线性增长 线性增长
24 8ms 6553 99.62
25 11ms 6607 99.83
26~79 迅速增长 缓慢增长 99+
80 74ms 6928 99.82
81~199 缓慢增加 缓慢下降 99.82
200 99ms 6230 99.94

小结:默认的JSF线程池配置存在很大的风险。系统最大可支持24个并发,超过24个并发SLA就无法满足。

3.2 fixed线程池(队列)的系统负载

图:JSF固定线程池(fixed+队列)在不同并发用户数(1-50)下的系统负载图

JSF业务线程数 可支持的最大并发用户数 TP值(50/90/99/999) 吞吐量(TPS) CPU最大利用率(%)
4 11 7/8/10/18 1531 27.67
8 25 8/8/10/18 3113 46.45
16 50 8/8/10/21 6228 87.97
20 23 3/4/10/15 6409 99.92
24 22 3/4/7/15 6178 99.86
25 22 3/4/6/15 6182 98.83

表:JSF固定业务线程池(fixed+队列)在满足TP99<10ms的系统最大负载(最大并发用户数)

小结:

① 在fixed线程模式下,CPU的利用率存在使用上限。

② 队列的使用可以有效增加系统对并发量的支持,同时也会带来吞吐量的提升。然而,由于任务在队列中等待,服务的响应时间会出现“水涨船高”的现象,存在一定风险。

3.3 fixed线程池的系统负载

图:JSF固定线程池(fixed)模式下,系统最大并发用户数时的系统负载

JSF业务线程数 并发用户数 TP99 吞吐量(TPS) CPU最大利用率(%)
4 4 5 1063 20.26
8 8 5 2216 36.62
16 16 6 4262 68.56
20 20 5 5550 86.22
24 24 8 6711 99.62
25 25 16 6644 98.77
26 26 19 6744 99.93

小结:综合固定线程池(fixed)的性能表现,需要设置一个合理的线程数大小来平衡CPU资源的充分利用和满足SLA的需求,线程数过小会导致CPU资源浪费,线程数过大则无法满足SLA

4.结论

根据测试结果和数据分析,我们得出以下结论:

  • JSF线程池的默认配置在并发量高的场景下存在风险:所有线上生产环境中的JSF服务所在的服务器,很少有能够在200个线程的情况下还能够满足SLA的。最大200个线程的线程池配置,将服务器置于“并发量高的场景下被压垮”的风险中。线程池大小的合理配置应该来自高保真的负载测试。
  • 足量的线程数才能保证资源(CPU)的利用率:业务型的服务通常都存在一定的IO操作(网络,磁盘等),线程执行过程中会发生等待,CPU利用率不高,需要增加并发的线程数量,让更多的线程参与CPU的分配,才能提高CPU的利用率。服务中IO操作越多,等待时长越长,需要的并发线程就越多。对于有IO操作的业务型服务,负载测试的线程数可以从2N(N是服务器的CPU核数)开始。
  • 过多的线程数只会降低系统的SLA:当线程数已能100%利用CPU后,增加线程数,线程就无法获取足够的CPU分配,这样服务的响应时间就会增大。在一定范围内,TP99还可能满足SLA的要求,系统的吞吐量也会有少量的增加。再持续增加线程数,TP99就无法满足系统的要求,系统的吞吐量也会开始下降。
  • 固定的线程数可以保护系统需要承担的负载能力:固定线程数可以保证系统对CPU的利用率限定在一定的负载范围内,保护系统稳定运行,保证响应时间TP99,但也限定了系统的并发能力。合理设置队列大小可以增加系统的并发度,也不会影响系统TP99,但会整体拉高服务的响应时间,出现不稳定性的变化,存在风险。
  • 让CPU100%的高负载运行:通常服务对外的SLA承诺通常高于服务真实的性能,这是因为我们考虑了基础设施及依赖服务的不稳定性。因此,即使CPU已经达到了100%,我们仍然可以增加一定数量的线程数,而不会影响对外的响应时间TP99的承诺。这样可以提高系统的并发能力。虽然系统可以在高负载下运行,但我们需要进一步进行稳定性测试,以提高系统的可靠性。

综上所述,线程池大小的合理配置需要结合业务需求和系统资源情况进行评估和测试,并预留合理的buffer空间,以保证系统稳定运行和满足用户的SLA。

5.附录

附录一:统计指标及术语说明

并发用户数:同时发起请求的用户数。

TP值(50/90/99/999):客户端的TP值,单位ms,数据来源于Forcebot。

吞吐量TPS:数据来源于Forcebot。

CPU利用率(%):数据来源于PFinder。

JSF业务线程数:JSF业务线程池的线程数,如:<jsf:server id="jsf" protocol="jsf" threadpool="fixed" threads="16" />

fixed/cached:JSF业务线程池的线程池类型,如:<jsf:server id="jsf" protocol="jsf" threadpool="fixed" threads="200"/>

作者:京东物流 刘江波

来源:京东云开发者社区 自猿其说Tech 转载请注明来源

与谈谈JSF业务线程池的大小配置相似的内容:

谈谈JSF业务线程池的大小配置

本文旨在通过一个简化场景(“单服务应用”)下的负载测试,为“JSF业务线程池大小配置”提供基准测试结果,并形成一些普遍适用的结论。

谈谈为什么要分库分表?

由于数据库的承载能力是有限的,当业务增长量达到一定规模后,数据库的性能就会达到瓶颈。于是产生了分库分表的解决方案,本文将详细讲解什么是分库分表,以及分库分表的原因和可能产生的问题。

谈谈 JVM 垃圾回收机制

前言 垃圾回收需要思考三件事情,哪些内存需要回收?什么时候回收?如何回收? 一、哪些内存需要回收 JVM 的内存区域中,程序计数器、虚拟机栈和本地方法栈的生命周期是随线程而生,随线程而灭的。这几个区域的内存分配和回收都具有确定性,不需要过多考虑回收问题,当方法或线程结束时,内存自然就跟着回收了。 J

谈谈 Spring 的过滤器和拦截器

我们在进行 Web 应用开发时,时常需要对请求进行拦截或处理,故 Spring 为我们提供了过滤器和拦截器来应对这种情况。那么两者之间有什么不同呢?本文将详细讲解两者的区别和对应的使用场景。

谈谈分布式事务原理

分布式系统中,不同服务之间的交互可能会出现各种问题,如网络、异常等,可能会导致服务间的数据产生不一致的情况,如何避免?本文将详细讲述分布式事务的原理和解决方案。

[转帖]谈谈Service与Ingress

https://zhuanlan.zhihu.com/p/596889677 你好,我是张磊。今天我和你分享的主题是:谈谈Service与Ingress。 在上一篇文章中,我为你详细讲解了将Service暴露给外界的三种方法。其中有一个叫作LoadBalancer类型的Service,它会为你在Cl

[转帖]谈谈对K8S CNI、CRI和CSI插件的理解

K8S的设计初衷就是支持可插拔架构,解决PaaS平台不好用、不能用、需要定制化等问题,K8S集成了插件、附加组件、服务和接口来扩展平台的核心功能。附加组件被定义为与环境的其他部分无缝集成的组件,提供类似本机的特性,并扩展集群管理员可用的组件,扩展还可以用于添加自定义软硬件的支持;服务和接口提供了看似

[转帖]谈谈ClickHouse性能情况以及相关优化

https://zhuanlan.zhihu.com/p/349105024 ClickHouse性能情况 主要分为4个方面 1、单个查询吞吐量 场景一: 如果数据被放置在page cache中,则一个不太复杂的查询在单个服务器上大约能够以2-10GB/s(未压缩)的速度进行处理(对于简单的查询,速

谈谈Selenium中的三种切换之alert

谈谈Selenium中的三种切换之alert 一、如何识别 识别方法:alert中的确定、取消、输入框无法用inspector定位到,当然还有一些特例。 alert分为三种 alert confirm prompt 分别对应3个js的命令(可在chrome的console面板中调试) alert('

谈谈Selenium中浏览器驱动的日志

谈谈Selenium中浏览器驱动的日志 来源于一位同学,“老师为啥firefox执行后会有日志文件,chrome没有呢?” 比对 你打开chrome浏览器 from selenium import webdriver driver = webdriver.Chrome() 这样是没有日志的 同样的代