news 2026/1/18 9:21:15

【万字长文】Qwen3-VL技术报告深度解析:多模态大模型架构演进与训练全攻略!

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
【万字长文】Qwen3-VL技术报告深度解析:多模态大模型架构演进与训练全攻略!

简介

Qwen3-VL相较于Qwen2.5-VL实现重大升级:架构上采用DeepStack、交错-MRoPE和文本时间对齐机制提升时空感知能力;预训练从三阶段扩展为四阶段,支持256K超长上下文;后训练引入知识蒸馏和强化学习(SAPO算法),推动模型从指令遵循向具备推理能力的智能体演进,实现更强的文本理解、长上下文处理和多模态推理能力。


前段时间,Qwen3-VL终于放出了技术报告,相较于2.5做了非常大的改动,从这些细节中我们也不难看出多模态大模型当下的演进趋势,一起来看看吧!

先来看Qwen3-VL在Qwen2.5-VL的基础上具体做了哪些改进:

从架构上来看,Qwen3-VL 依然沿用 ViT + Merger + LLM 的整体范式,但在模块交互和位置编码上引入了显著改进:它通过 DeepStack 能在深层网络中更有效的保留视觉信息,通过 交错-MRoPE 和基于文本的时间对齐机制 解决了多模态长序列的时空建模瓶颈,从而实现了更强的时空感知能力。

从预训练流程来看,Qwen2.5-VL 采用经典的三阶段式训练,侧重于 ViT 的从头培养;而 Qwen3-VL 升级为四阶段,新增了专门的对齐阶段(Stage 0),并且在长窗口(Long Context)的训练上更加激进,将其拆分为两个阶段以冲击 256K 的超长上下文 。

从后训练流程来看,这是变化最大的地方。Qwen2.5-VL 依靠传统的 SFT + DPO 组合 ;而 Qwen3-VL 引入了强弱知识蒸馏和强化学习 (SAPO算法)两个环节 ,标志着多模态模型从单纯的指令遵循向具备推理能力的 Agent演进。

总结来说,Qwen2.5-VL 是一个扎实的多模态理解模型,而 Qwen3-VL 则通过引入复杂的 RL 和蒸馏流程,试图将模型进化为一个具备慢思考能力和长窗口视野的多模态智能体(Agent)。

论文链接:https://arxiv.org/pdf/2511.21631

代码链接:https://github.com/QwenLM/Qwen3-VL

一、模型架构

如上图所示,Qwen3-VL仍然采用ViT+Merger+LLM的架构:

  • LLM:包含3种dense模型和2种MOE模型,旗舰模型为 Qwen3-VL-235B-A22B。在自注意力中使用了QK-Norm,并且在前3层进行Deepstack特征融合。
  • ViT:复用SigLIP-2架构,在其基础上进行继续预训练(Qwen2.5VL重新训练ViT)。
  • patch_embed中开启了bias,patch-size变成16(Qwen2.5VL关闭 bias,patch-size14)。
  • MLP中激活函数变成PytorchGELUTanh(Qwen2.5VL SiLU)。
  • 位置编码仍然采用2D-RoPE,支持动态分辨率,并根据输入尺寸插值绝对位置嵌入。
  • 采用LayerNorm(Qwen2.5VL 采用RMSNorm)。
  • 定位从绝对坐标又改回了相对坐标。
  • Merger:与Qwen2.5VL一样采用两层的MLP,将视觉特征压缩为1个token。区别是采用LayerNorm,并使用了DeepStack机制(后面介绍)。

QK Norm

论文链接:https://arxiv.org/pdf/2010.04245

应用:Qwen3、LLaMA 4 等前沿大模型均已应用

面临问题标准注意力计算中的是无界的,导致容易饱和

原理:对 Q 和 K 分别沿头维度进行 L2 归一化,这样就将点积注意力转换为余弦相似度注意力,将限制在区间,避免softmax饱和导致的梯度消失爆炸

工程实现:在这篇论文中,用可学习参数 代替标准注意力中的固定缩放因子

但在大模型中,选择用RMSNorm实现QKNorm

²εγ

²εγ

其中 γ 是可学习的缩放参数,ε 是防止除零的小常数,γ 与的本质是一样的,都是为了将的取值范围从拓展到更大的区间(但不是那种无界),避免softmax输出差异过小,难以区分 token 间的关联性。

交错-MRoPE

回忆一下Qwen2.5VL 中的MRoPE,使用3D位置信息**(时间,高度,宽度)**。其位置向量的组成方式为:

一个token的sin/cos向量

但这种方式存在问题,即RoPE中,表示索引,由于旋转频率随着索引增加而降低,MRoPE会导致时间维度的信息全部在高频维度上,不利于长序列的理解,会导致注意力随着时间快速衰减。

为此,Qwen3-VL在LLM中采用Interleaved MRoPE,以细粒度的轮询方式将特征通道分配到时间,高度,宽度轴上,确保每个位置轴都使用从高到低的完整频谱进行编码。

上图中黄、粉、绿分别表示T、H、W维度,T=24,H和W=20,1:4缩小,所以最后会有一个单独的时间块。

针对所有自学遇到困难的同学们,我帮大家系统梳理大模型学习脉络,将这份LLM大模型资料分享出来:包括LLM大模型书籍、640套大模型行业报告、LLM大模型学习视频、LLM大模型学习路线、开源大模型学习教程等, 😝有需要的小伙伴,可以扫描下方二维码领取🆓↓↓↓


DeepStack

从 ViT的中间层提取视觉标记,注入到LLM的多个层中,保留了从低级到高级表示的丰富视觉信息。从视觉编码器的三个[8,16,24]不同层级选择特征,使用Merger将这些特征投影为视觉token,然后添加到前三个LLM层的对应hidden states中。

基于文本的时间对齐机制

Qwen2.5VL将时间位置 ID 直接关联到绝对时间(即3DRoPE,时间维度的值对应帧数),该方法在处理长视频时会产生过大且稀疏的时间位置 ID,削弱模型对长时序上下文的理解能力。 并且为了有效学习,需要在不同帧率(fps)下进行广泛且均匀的采样,显著增加了训练数据构建的成本。

Qwen3-VL采用基于文本的时间对齐机制,为每个视频时序patch都添加时间戳前缀,在训练过程中添加了“秒”和“时:分:秒”两种格式的时间戳以确保模型能够学习理解多种时间码表示。这种方法会带来适度的上下文长度增加。

在数据预处理时就已经在文本中添加了时间戳,输入是聪明的<vision_start> <video_token> [视觉特征token序列] <vision_end> 小羊。其中表示时间戳,[视觉特征token序列]包含1个帧,每一帧是2×2 网格(llm_grid_h=2, llm_grid_w=2)。

二、预训练

四阶段预训练

Qwen3-VL的预训练分为四个阶段

  1. 视觉-语言对齐:弥合视觉编码器与LLM的模态差距
  • 训练策略:仅训练MLP merger参数,冻结ViT和LLM主
  • 数据:约67B tokens的高质量图像-文本对、视觉知识库和OCR数据
  • 序列长度:8,192 tokens
  1. 多模态预训练:全参数端到端联合训练
  • 训练策略:解冻视觉编码器、合并器和LLM所有参数
  • 数据:约1T tokens混合b数据(视觉语言数据+纯文本数据) ,前者包含交错图文文档、视觉定位、VQA、STEM领域数据及少量视频数据
  • 序列长度:保持8,192 tokens
  1. 长上下文预训练:扩展上下文处理能力
  • 训练策略:训练所有模型参数,序列长度增至32,768 tokens
  • 数据:约1T tokens数据,增加纯文本数据比例,强化长文本理解;增加视频和agent指令遵循数据
  1. 超长上下文适应:将上下文窗口扩展至极限
  • 关键改进:训练所有模型参数,序列长度增至262,144 tokens
  • 数据:100B tokens数据集 ,重点是长视频理解和长文档分析。

训练数据处理

  1. 图像-标题对与图文交错数据
  • 图像-标题对:对于网页多语言图文对,用Qwen2.5-VL-32B重写描述,强化视觉元素与语义表达;基于语义相似性进行语义去重,通过聚类识别稀疏数据,并进行针对性增强。
  • 图文交错:采集中英文文档,基于微调后的轻量级 Qwen 的评分器进行领域分类,过滤广告等低价值内容;对书籍类数据用微调后的 Qwen2.5-VL-7B 模型进行解析,精确提取并对齐文本与嵌入的图表、示意图和照片。合并页面生成最长256K tokens的序列,实现超长上下文建模。
  1. 知识类数据
  • 覆盖10+语义类别。采用重要性采样平衡长尾分布:高频实体多采样,低频实体少量保留;替换稀疏标注为LLM生成的包含属性、场景等的详细描述。
  1. OCR、文档解析与长文档理解
  • OCR:构建粗到精的流水线,利用OCR模型和Qwen2.5VL优化OCR标注。包含3000万内部样本+3000万多语言合成样本。
  • 文档解析:包含300万Common Crawl PDF+400万内部文档,先用模型标注文本区域和非文本区域的顺序和边界,用Qwen2.5-VL-72B进行区域识别,最后将输出结果重新组合为具有位置感知、版面对齐的解析数据。
  • 长文档理解:将单页文档合成长文档解析序列,生成长文档VQA数据,并平衡问题类型分布。
  1. Grounding 与计数
  • 边界框 Grounding:整合COCO等开源数据集,开发自动化合成标注(Qwen2.5-VL提取物体候选+Grounding DINO标注+过滤低置信样本)。
  • 点 Grounding:融合PixMo等公开数据并合成聚焦细粒度图像细节等标注数据。
  • 计数:包含直接计数、框计数、点计数三类任务,采用[0,1000]归一化坐标,提升分辨率适应性。
  1. 空间理解与3D识别
  • 空间理解:为了让模型能够推理二维场景中的空间关系、物体可操作性以及可行操作,构建了一个包含提升含关系标注(如“杯子在电脑左侧”)、可操作性标签(如“可抓取”)、动作规划查询(如“为了拿到显示器后面的书,我应该先移动什么?”)的数据集,采用相对坐标鼓励关系推理。
  • 3D 定位:构建3D视觉定位数据集(图像+自然语言指代+边界框),将所有数据统一到一个相机坐标系。
  1. 代码数据
  • 纯文本代码:复用Qwen3 和 Qwen3-Coder系列数据集,覆盖软件开发、算法、数学推理等场景。
  • 多模态代码:包含截图转HTML/CSS、图像转SVG代码、视觉编程题、流程图转代码等任务。
  1. 视频数据
  • 时序感知视频理解:长视频采用从短到长字幕生成策略,利用字幕生成模型生成细粒度的标注;为增强模型的时空定位能力,构建时空定位数据,在物体、动作和人物层面进行了标注。
  • 数据平衡:按数据来源平衡分布,根据不同的序列长度约束,动态调整采样参数,如每秒帧数(fps)和最大帧数,进行长度自适应采样。
  1. STEM类数据
  • 视觉感知:通过程序生成几何图表,包含100万点定位样本、200万面向感知的视觉问答对;经过两阶段标注+模型验证,生成600万图表描述数据集。
  • 多模态推理:6000万K12至本科习题,清洗低质量数据、统一答案格式;采用推理模型合成1200万带图像的长CoT样本,基于规则和模型验证推理轨迹,筛选高难度问题。
  • 语言推理:复用Qwen3的推理数据,因为多模态推理能力在很大程度上源于语言推理能力。
  1. 智能体数据
  • GUI:GUI界面感知包含元素描述、密集标注等任务;智能体能力方面,构建多步骤任务轨迹+人工审核;补充CoT推理,强化规划与自我修正能力。
  • 函数调用:多模态函数调用轨迹合成流水线(生成查询、函数定义、调用逻辑、响应,此过程重复进行,直到用户查询被认为已解决)。
  • 搜索:结合图像与文本搜索工具收集多模态事实查询轨迹,鼓励模型对陌生实体主动搜索。

三、后训练

三阶段后训练

  1. SFT:激活指令遵循能力和潜在推理技能
  • 分两阶段实施:32k上下文长度训练 + 扩展到256k上下文窗口,专注长文档/长视频数据
  • 训练数据分两类:用于非思考型模型的标准格式,以及用于思考型模型的CoT格式。
  1. 强弱知识蒸馏:将教师模型能力迁移到学生模型
  • 使用纯文本数据进行LLM微调,显著提升文本/多模态任务的推理能力
  1. 强化学习:分两个阶段:
  • 推理RL:覆盖数学、编码、逻辑推理、视觉基础等任务
  • 通用RL:增强指令跟随和人类偏好对齐

SFT阶段

SFT数据

在Qwen2.5VL的基础能力上(包含分成 8 个核心领域,30 个细粒度领域),新增了以下能力:

  • 具身智能的空间推理
  • 细粒度视觉理解的图像推理
  • 视频时空定位的鲁棒目标追踪
  • 数百页的长技术文档的理解
  • 数据集构成 :约 120 万样本 ,1/3 为纯文本 ,2/3 为图像-文本和视频-文本对 。(对比Qwen2.5用了200万数据,文本多模态1:1)。引入单轮和多轮对话,支持单图、多图序列的对话动态模拟。包含交错图像-文本示例,用于工具增强的图像搜索和视觉推理 。
  • 训练策略
  1. 第一阶段:32K token 序列长度,训练 1 epoch
  2. 第二阶段:256K token 序列长度,32k 和 256k 数据混合的训练,训练 1 epoch
  • 数据质量控制
  • 查询过滤:
  • 使用 Qwen2.5-VL 筛选不可验证的查询
  • 修正模糊指令,去除无实质内容的网络来源查询
  • 所有剩余的查询经过复杂度和上下文相关性的最终评估,仅保留适当难度且相关的样本进入下一阶段
  • 响应过滤:
  • 规则过滤:去除重复、不完整或格式错误的响应,过滤偏离主题或有害内容
  • 模型过滤:基于 Qwen2.5-VL 的奖励模型,评估答案正确性、完整性、语言一致性等维度;视觉任务验证视觉信息的准确应用;以及过滤掉规则方法难以识别的问题,如不恰当的语言混用或突兀的风格转换

冷启动数据

  • 数据构成与领域覆盖:(视觉语言:纯文本 ≈ 1:1),多模态部分覆盖 VQA、OCR、2D/3D 定位、视频分析等传统领域,特别强化 STEM 和Agent相关任务;文本部分跟Qwen3数据一致。
  • 数据过滤:
  • 先做难度过滤:只保留base模型做不对和回复更长更详细的数据。
  • 多模态必要性过滤:过滤掉Qwen3-30B-nothink 能不依赖图片就能做对的题
  • 与Qwen3一样对相应进行处理:过滤到错误、重复、语言混乱、猜答案(Qwen3-VL 中新提到的)、缺乏推理步骤的数据。

强到弱蒸馏

使用纯文本数据进行LLM微调,分为两个阶段

  • off-policy蒸馏:直接把教师模型回复给学生模型做微调。
  • on-policy蒸馏:最小化教师和学生模型的logits之间的KL散度。

强化学习

推理强化学习

目的:提升模型推理能力

  1. 数据准备
  • 数据来源:包含文本和多模态数据,覆盖数学、编程、逻辑推理、视觉定位和视觉谜题领域。
  • 数据预处理:使用Qwen3-VL-235B-A22B对每个查询生成16个响应,若全部做错则丢弃该查询(删掉太难的)。
  • 数据筛选:每个数据源单独做实验,如果RL实验之后没提升就剔除(看起来工作量巨大)。最终得到30K数据。
  • 训练阶段过滤:训练时rollout16次,通过率>90%的简单查询进行过滤掉(删掉太简单的)。
  • 批次构建:一个batch混合不同任务数据,每个batch的比例固定,通过预实验确定各任务样本比例。
  1. 奖励系统设计
  • 构建统一的奖励框架,不同任务的奖励需要分别实现,共享数据预处理、工具函数、奖励管理器等。
  • 删除格式奖励:通过prompt引导模型输出规范格式,无需显式格式奖励
  • 语言惩罚:对输出语言与prompt中要求语言不一致的情况添加惩罚。
  1. RL算法:采用SAPO,对比GRPO/GSPO,能更长时间的稳定学习,达到更高的Pass@1准确率。主要创新为:

  2. 用受温度控制的软门控机制替代了硬裁剪

  3. 为负token设置更高的温度,使得负token上的梯度衰减得更快,从而提升训练的稳定性和性能

通用强化学习

目的:提升模型的泛化能力和鲁棒性,进行多任务RL训练。

  1. 多任务奖励机制 :基于SFT阶段的多个任务(VQA、图像描述、OCR、文档解析、grounding、时钟识别等)构建综合奖励函数,优化以下两个维度:
  • 指令遵循:评估模型对显式用户指令的遵守能力,包括内容、格式、长度和结构化输出的约束。
  • 偏好对齐:针对开放式或主观性查询,优化输出的帮助性、事实准确性和风格适宜性,以符合人类偏好。
  1. 错误先验纠正:通过设计可验证任务(如反直觉对象计数、复杂时钟时间识别)触发SFT阶段形成的错误知识先验,用事实知识替代错误先验。
  2. 低频问题抑制 :针对不恰当语言混合、过度重复、格式错误等低频问题,跟着其他数据一起做RL训练样本效率太低,因此构建会诱发此类不良行为的prompt的数据集专门训练,通过高频有针对性的惩罚策略抑制这些错误。
  3. 混合奖励设计:
  • 规则奖励:可验证问题基于明确规则(如格式遵循)提供高精度反馈,缓解奖励劫持。
  • 模型奖励:开放性问题利用Qwen2.5-VL-72B-Instruct或Qwen3作为评估模型,对比模型生成回复与真实答案。

Think with Image

目标:增强多模态模型的工具调用能力

  1. 创建一个冷启动agent数据集,包含10k个视觉问答任务,对Qwen2.5-VL-32B微调,模拟视觉agent的行为:think → act → analyze feedback → answer,最后进行多轮、工具集成的RL。

  2. 再用训练好的Qwen2.5-VL-32B蒸馏出120k的多轮agent交互数据。用这些数据对Qwen3-VL进行相同的SFT+RL流程。

    强化学习采用三种奖励信号:

  • 准确性奖励:用 Qwen3-32B 来衡量最终答案是否正确
  • 多轮推理奖励:利用 Qwen2.5-VL-72B 评估agent的推理过程奖励
  • 工具调用奖励:对比实际工具调用次数与 Qwen2.5-VL-72B估算的调用次数,鼓励适当的工具调用,防止hack到不调用工具或者只调用一次工具的情况。

Infrastructure

训练使用PAI-Lingjun,基于Megatron进行分布式训练(整合了张量并行(TP)、流水线并行(PP)、上下文并行(CP)、专家并行(EP)以及 ZeRO-1 数据并行(DP)),在万卡规模仍能保持高吞吐量和低通信延迟。 本地部署采用vLLM或sglang,前者通过PageAttention实现高吞吐量,后者能更好的结构化生成和处理复杂提示。

论文总结

Qwen3-VL实现了三方面能力的突破:

  1. 更强的纯文本理解能力,在多个场景下超越同类纯文本模型
  2. 更强的长上下文理解能力,支持文本及交错多模态输入的 256K token窗口。
  3. 更强的对单图、多图和视频的多模态推理能力。

在架构方面,做了以下改进

  1. 交错-MRoPE,原始MRoPE将特征维度按照时间(T)、高度(H)和宽度(W)的顺序分块划分,使得时间信息全部分布在高频维度上。Qwen3-VL将时间、高度、宽度三个维度均匀分布在低频和高频带中,显著提升图像与视频中的时空建模能力;
  2. DeepStack ,ViT不同层的视觉token通过残差连接路由至对应的 LLM 层,能够有效保留从底层(low-level)到高层(high-level)的丰富视觉信息,在不增加额外上下文长度的情况下增强多层级融合,强化视觉-语言对齐;
  3. 采用基于文本的时间对齐机制,通过显式的文本时间戳对齐替代 Qwen2.5-VL 中通过位置编码实现的绝对时间对齐,采用“时间戳-视频帧”交错的输入形式,实现更精确的时空定位。为平衡纯文本与多模态学习目标,采用平方根重加权策略,在不损害文本能力的前提下显著提升多模态性能。

Qwen3-VL的训练流程:

  • 预训练:四阶段(视觉语言对齐→全参数多模态训练→长上下文适应→超长上下文优化)
  • 后训练:三阶段(监督微调→知识蒸馏→强化学习)

四、如何学习AI大模型?

大模型时代,火爆出圈的LLM大模型让程序员们开始重新评估自己的本领。 “AI会取代那些行业?”“谁的饭碗又将不保了?”等问题热议不断。

不如成为「掌握AI工具的技术人」,毕竟AI时代,谁先尝试,谁就能占得先机!

想正式转到一些新兴的 AI 行业,不仅需要系统的学习AI大模型。同时也要跟已有的技能结合,辅助编程提效,或上手实操应用,增加自己的职场竞争力。

但是LLM相关的内容很多,现在网上的老课程老教材关于LLM又太少。所以现在小白入门就只能靠自学,学习成本和门槛很高

那么针对所有自学遇到困难的同学们,我帮大家系统梳理大模型学习脉络,将这份LLM大模型资料分享出来:包括LLM大模型书籍、640套大模型行业报告、LLM大模型学习视频、LLM大模型学习路线、开源大模型学习教程等, 😝有需要的小伙伴,可以扫描下方二维码领取🆓↓↓↓

学习路线

第一阶段: 从大模型系统设计入手,讲解大模型的主要方法;

第二阶段: 在通过大模型提示词工程从Prompts角度入手更好发挥模型的作用;

第三阶段: 大模型平台应用开发借助阿里云PAI平台构建电商领域虚拟试衣系统;

第四阶段: 大模型知识库应用开发以LangChain框架为例,构建物流行业咨询智能问答系统;

第五阶段: 大模型微调开发借助以大健康、新零售、新媒体领域构建适合当前领域大模型;

第六阶段: 以SD多模态大模型为主,搭建了文生图小程序案例;

第七阶段: 以大模型平台应用与开发为主,通过星火大模型,文心大模型等成熟大模型构建大模型行业应用。

👉学会后的收获:👈

• 基于大模型全栈工程实现(前端、后端、产品经理、设计、数据分析等),通过这门课可获得不同能力;

• 能够利用大模型解决相关实际项目需求: 大数据时代,越来越多的企业和机构需要处理海量数据,利用大模型技术可以更好地处理这些数据,提高数据分析和决策的准确性。因此,掌握大模型应用开发技能,可以让程序员更好地应对实际项目需求;

• 基于大模型和企业数据AI应用开发,实现大模型理论、掌握GPU算力、硬件、LangChain开发框架和项目实战技能, 学会Fine-tuning垂直训练大模型(数据准备、数据蒸馏、大模型部署)一站式掌握;

• 能够完成时下热门大模型垂直领域模型训练能力,提高程序员的编码能力: 大模型应用开发需要掌握机器学习算法、深度学习框架等技术,这些技术的掌握可以提高程序员的编码能力和分析能力,让程序员更加熟练地编写高质量的代码。

1.AI大模型学习路线图
2.100套AI大模型商业化落地方案
3.100集大模型视频教程
4.200本大模型PDF书籍
5.LLM面试题合集
6.AI产品经理资源合集

👉获取方式:
😝有需要的小伙伴,可以保存图片到wx扫描二v码免费领取【保证100%免费】🆓

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/1/2 15:07:28

2.2新一代信息技术及应用

1、物联网架构可分为三层&#xff1a;感知层、网络层、应用层 2、物联网关键技术&#xff1a;传感器技术&#xff08;RFID射频识别技术&#xff09;、传感网&#xff08;MEMS微机电系统&#xff09;、应用系统框架&#xff08;实现智能化的控制&#xff0c;涉及5个重要的技术部…

作者头像 李华
网站建设 2026/1/16 2:41:41

Linux基本指令入门:从看不懂到熟练使用

目录 前言&#xff1a; 一、前置知识&#xff1a;先搞懂 Linux 终端与命令格式 二、必学基础指令 2.1 定位当前位置&#xff1a;pwd 指令 2.2 浏览目录内容&#xff1a;ls 指令 2.3 切换工作目录&#xff1a;cd 指令 2.4 创建空文件&#xff1a;touch 指令 2.5 创建目录…

作者头像 李华
网站建设 2025/12/16 23:26:37

Java:写给学弟学妹的一封信——我们为什么要深入理解这门语言

Java&#xff1a;写给学弟学妹的一封信——我们为什么要深入理解这门语言凌晨三点&#xff0c;屏幕的光还亮着。这次的报错信息是 NullPointerException——又是它。这已经是本周第三次遇到这个“老朋友”了。如果你也在学习Java的路上挣扎&#xff0c;请相信&#xff0c;我们都…

作者头像 李华
网站建设 2025/12/16 23:26:35

C# 從入門到精通:全方位掌握現代程式語言

C# 從入門到精通&#xff1a;全方位掌握現代程式語言第一部分&#xff1a;C# 入門基礎1.1 C# 概述與發展歷程C#&#xff08;發音為 "C Sharp"&#xff09;是由微軟在 2000 年推出的現代化、物件導向的程式語言。它結合了 C 的強大功能與 Java 的簡潔性&#xff0c;並…

作者头像 李华
网站建设 2026/1/6 21:57:23

Flutter 开发工具链详解

欢迎大家加入开源鸿蒙跨平台开发者社区&#xff0c;一起共建开源鸿蒙跨平台生态。 # Flutter 开发工具链详解 Flutter 是一个由 Google 开发的跨平台移动应用开发框架&#xff0c;其完整的工具链涵盖了从开发环境搭建到应用发布的整个生命周期。以下将详细介绍 Flutter 的核心…

作者头像 李华
网站建设 2025/12/16 23:25:43

Video DownloadHelper 配套应用终极配置指南:告别视频下载烦恼

Video DownloadHelper 配套应用终极配置指南&#xff1a;告别视频下载烦恼 【免费下载链接】vdhcoapp Companion application for Video DownloadHelper browser add-on 项目地址: https://gitcode.com/gh_mirrors/vd/vdhcoapp 还在为浏览器视频下载功能受限而苦恼吗&am…

作者头像 李华