news 2026/2/10 14:08:17

JDK虚拟线程测试及用法

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
JDK虚拟线程测试及用法

前言

  • JDK21可以说是一个史诗级的产品,带来了目前Java高并发较为顶级解决方案虚拟线程,话不多说,直接来上代码体验一下功能,洛阳目前使用的笔记本是华为的matebook D15 2022款,16+512,cpu是i7-1195G7,idea2024.1.7,所有都是使用默认配置,话不多说,上代码(全部代码在最后)

正文

  1. 先是一个模拟IO操作的方法
// 模拟工作负载的方法privatestaticvoidsimulateWork(){try{// 模拟一个耗时100毫秒的I/O操作Thread.sleep(100);}catch(InterruptedExceptione){// 如果线程被中断,重新设置中断状态Thread.currentThread().interrupt();}}
  1. 使用虚拟线程的测试代码
// 使用虚拟线程执行任务的方法privatestaticlongexecuteWithVirtualThreads(inttaskCount)throwsInterruptedException{// 记录开始时间longstart=System.currentTimeMillis();// 创建一个虚拟线程执行器try(ExecutorServiceexecutor=Executors.newVirtualThreadPerTaskExecutor()){// 提交taskCount个任务到虚拟线程执行器for(inti=0;i<taskCount;i++){executor.submit(Test::simulateWork);}// 关闭执行器,不再接受新任务executor.shutdown();// 等待所有任务完成,最多等待1小时executor.awaitTermination(1,TimeUnit.HOURS);}// 计算并返回总耗时returnSystem.currentTimeMillis()-start;}
  1. 使用线程池的测试代码
// 使用传统线程执行任务的方法privatestaticlongexecuteWithTraditionalThreads(inttaskCount)throwsInterruptedException{// 记录开始时间longstart=System.currentTimeMillis();// 创建一个固定大小为100的线程池try(ExecutorServiceexecutor=Executors.newFixedThreadPool(100)){// 提交taskCount个任务到线程池for(inti=0;i<taskCount;i++){executor.submit(Test::simulateWork);}// 关闭线程池,不再接受新任务executor.shutdown();// 等待所有任务完成,最多等待1小时executor.awaitTermination(1,TimeUnit.HOURS);}// 计算并返回总耗时returnSystem.currentTimeMillis()-start;}
  1. 格式化时间(可有可无)
// 格式化时间的方法,将毫秒转换为更易读的格式privatestaticStringformatTime(longmilliseconds){// 返回格式化的字符串,同时显示毫秒数和秒数(保留两位小数)returnString.format("%d 毫秒 (%.2f 秒)",milliseconds,milliseconds/1000.0);}
  1. main方法
publicstaticvoidmain(String[]args)throwsInterruptedException{// 设置要执行的任务数量inttaskCount=100000;// 开始测试传统线程System.out.println("正在使用传统线程执行任务...");// 执行传统线程测试并记录耗时longtraditionalTime=executeWithTraditionalThreads(taskCount);// 输出传统线程的执行时间System.out.println("传统线程完成任务,耗时 "+formatTime(traditionalTime));// 开始测试虚拟线程System.out.println("\n正在使用虚拟线程执行任务...");// 执行虚拟线程测试并记录耗时longvirtualTime=executeWithVirtualThreads(taskCount);// 输出虚拟线程的执行时间System.out.println("虚拟线程完成任务,耗时 "+formatTime(virtualTime));// 计算两种线程执行时间的差异longtimeDifference=traditionalTime-virtualTime;// 输出性能差异和速度提升倍数System.out.println("\n性能差异:"+formatTime(timeDifference)+" ("+String.format("%.2f",(double)traditionalTime/virtualTime)+" 倍速度提升)");}
  1. 运行结果
正在使用传统线程执行任务...传统线程完成任务,耗时106725毫秒(106.73)正在使用虚拟线程执行任务...虚拟线程完成任务,耗时2014毫秒(2.01)性能差异:104711毫秒(104.71)(52.99倍速度提升)Processfinishedwithexitcode0
  1. 可以看到,使用了虚拟线程之后,速度提升了50倍左右,至于底层原理之类的,那不是洛阳这种小垃圾去看的,洛阳只学会能够如何使用就可以了(手动狗头),以下是整个测试类的完整代码,大家可以自己跑一下感受一下,但是虚拟线程也并不是说能够无脑上,要根据实际情况考虑,正所谓没有最好的架构、只有最合适的架构。
packagecom.travel.echo.test;importjava.util.concurrent.ExecutorService;importjava.util.concurrent.Executors;importjava.util.concurrent.TimeUnit;/** * @Description * @Author LuoYang * @Date 2025/12/6 周六 */publicclassTest{publicstaticvoidmain(String[]args)throwsInterruptedException{// 设置要执行的任务数量inttaskCount=100000;// 开始测试传统线程System.out.println("正在使用传统线程执行任务...");// 执行传统线程测试并记录耗时longtraditionalTime=executeWithTraditionalThreads(taskCount);// 输出传统线程的执行时间System.out.println("传统线程完成任务,耗时 "+formatTime(traditionalTime));// 开始测试虚拟线程System.out.println("\n正在使用虚拟线程执行任务...");// 执行虚拟线程测试并记录耗时longvirtualTime=executeWithVirtualThreads(taskCount);// 输出虚拟线程的执行时间System.out.println("虚拟线程完成任务,耗时 "+formatTime(virtualTime));// 计算两种线程执行时间的差异longtimeDifference=traditionalTime-virtualTime;// 输出性能差异和速度提升倍数System.out.println("\n性能差异:"+formatTime(timeDifference)+" ("+String.format("%.2f",(double)traditionalTime/virtualTime)+" 倍速度提升)");}// 使用传统线程执行任务的方法privatestaticlongexecuteWithTraditionalThreads(inttaskCount)throwsInterruptedException{// 记录开始时间longstart=System.currentTimeMillis();// 创建一个固定大小为100的线程池try(ExecutorServiceexecutor=Executors.newFixedThreadPool(100)){// 提交taskCount个任务到线程池for(inti=0;i<taskCount;i++){executor.submit(Test::simulateWork);}// 关闭线程池,不再接受新任务executor.shutdown();// 等待所有任务完成,最多等待1小时executor.awaitTermination(1,TimeUnit.HOURS);}// 计算并返回总耗时returnSystem.currentTimeMillis()-start;}// 使用虚拟线程执行任务的方法privatestaticlongexecuteWithVirtualThreads(inttaskCount)throwsInterruptedException{// 记录开始时间longstart=System.currentTimeMillis();// 创建一个虚拟线程执行器try(ExecutorServiceexecutor=Executors.newVirtualThreadPerTaskExecutor()){// 提交taskCount个任务到虚拟线程执行器for(inti=0;i<taskCount;i++){executor.submit(Test::simulateWork);}// 关闭执行器,不再接受新任务executor.shutdown();// 等待所有任务完成,最多等待1小时executor.awaitTermination(1,TimeUnit.HOURS);}// 计算并返回总耗时returnSystem.currentTimeMillis()-start;}// 模拟工作负载的方法privatestaticvoidsimulateWork(){try{// 模拟一个耗时100毫秒的I/O操作Thread.sleep(100);}catch(InterruptedExceptione){// 如果线程被中断,重新设置中断状态Thread.currentThread().interrupt();}}// 格式化时间的方法,将毫秒转换为更易读的格式privatestaticStringformatTime(longmilliseconds){// 返回格式化的字符串,同时显示毫秒数和秒数(保留两位小数)returnString.format("%d 毫秒 (%.2f 秒)",milliseconds,milliseconds/1000.0);}}

结尾

  • 悲观者永远正确 乐观者永远前行
版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/2/7 19:01:13

999999

999999

作者头像 李华
网站建设 2026/2/3 5:08:52

Windows平台Conda activate报错?Miniconda初始化指南

Windows平台Conda activate报错&#xff1f;Miniconda初始化指南 在人工智能和数据科学项目中&#xff0c;Python 已经成为事实上的标准语言。但随着项目增多&#xff0c;不同任务对 Python 版本、库依赖的要求千差万别——有的需要 PyTorch 1.13&#xff0c;有的必须用 Tensor…

作者头像 李华
网站建设 2026/2/5 21:54:46

requests.post vs 传统方法:效率对比实测

快速体验 打开 InsCode(快马)平台 https://www.inscode.net输入框内输入如下内容&#xff1a; 创建一个对比测试项目&#xff0c;分别使用&#xff1a;1. requests.post 2. urllib.request 3. http.client 实现相同的POST请求功能。要求&#xff1a;1. 统计各方法的代码行数 2…

作者头像 李华
网站建设 2026/2/7 14:26:33

企业级SSH端口管理实战:从-p参数到安全运维

快速体验 打开 InsCode(快马)平台 https://www.inscode.net输入框内输入如下内容&#xff1a; 开发一个企业SSH端口管理系统&#xff0c;功能包括&#xff1a;1. 批量扫描指定端口范围(-p)的SSH服务 2. 自动生成可视化拓扑图 3. 异常连接告警 4. 合规性检查报告。使用DeepSeek…

作者头像 李华
网站建设 2026/2/7 23:01:21

C#调用FLUX.1-dev模型API:Windows环境下AI集成实践

C#调用FLUX.1-dev模型API&#xff1a;Windows环境下AI集成实践 在当今智能应用快速演进的背景下&#xff0c;越来越多的企业希望将前沿AI能力无缝嵌入现有的业务系统中。尤其是图像生成技术——从一段文字自动生成高质量视觉内容的能力——正逐步被应用于设计辅助、营销素材制作…

作者头像 李华
网站建设 2026/2/1 15:21:40

vLLM推理加速镜像发布:支持LLaMA、Qwen、ChatGLM,吞吐提升10倍

vLLM推理加速镜像发布&#xff1a;支持LLaMA、Qwen、ChatGLM&#xff0c;吞吐提升10倍 在大模型落地如火如荼的今天&#xff0c;一个现实问题始终困扰着AI工程团队&#xff1a;如何让7B、13B甚至更大的语言模型&#xff0c;在有限的GPU资源下稳定支撑成百上千用户的并发请求&am…

作者头像 李华