news 2026/4/25 23:22:27

MindSpeed LLM适配Qwen3-Coder-Next并上线魔乐社区,训练推理教程请查收

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
MindSpeed LLM适配Qwen3-Coder-Next并上线魔乐社区,训练推理教程请查收

MindSpeed LLM作为昇腾AI生态的重要技术支撑,专为大规模语言模型设计,具有超强的计算能力和灵活的开发支持。Qwen3-Coder-Next一发布,MindSpeed LLM框架立刻支持跑通。MindSpeed LLM快速部署与应用Qwen3-Coder-Next的教程已上线魔乐社区,欢迎开发者体验!

🔗 模型权重链接:https://modelers.cn/models/Qwen-AI/Qwen3-Coder-Next

🔗 MindSpeed LLM训练推理教程:https://modelers.cn/models/MindSpeed/Qwen3-Coder-Next

01 MindSpeed LLM无缝支持跑通模型

MindSpeed LLM为开发者提供了一个稳定、高效的平台来快速部署和调优 Qwen3-Coder-Next模型。

  • 硬件与框架深度协同,立刻跑通:MindSpeed LLM与昇腾NPU的深度集成,使得 Qwen3-Coder-Next大语言模型在发布的第一时间内,就能够顺利跑通并高效运行。无论是在训练过程中,还是在推理阶段,MindSpeed LLM都为 Qwen3-Coder-Next提供了最佳的硬件加速支持,确保性能的最大化释放。
  • 开箱即用,无需复杂配置:开发者只需简单配置,即可在MindSpeed LLM上无缝运行 Qwen3-Coder-Next模型。框架提供了完整的工具链,帮助开发者快速将 Qwen3-Coder-Next应用到实际项目中,减少了复杂的调优过程,缩短了开发周期。
  • 分布式计算优化:MindSpeed LLM内置的分布式计算能力,能够有效利用多台昇腾AI硬件,确保 Qwen3-Coder-Next在大规模并发任务下的稳定运行,极大提升了处理效率和响应速度。

MindSpeed LLM框架与Qwen3-Coder-Next的同步发布并立刻支持跑通,标志着昇腾平台在大语言模型领域的技术实力再次提升。开发者可以在第一时间内,借助强大的昇腾计算能力,快速将 Qwen3-Coder-Next应用于实际项目,进一步加速智能应用的落地

本教程将引导您完成从环境准备到模型训练的完整过程,确保您能够快速上手并顺利跑通 Qwen3-Coder-Next模型。我们提供详细的步骤说明,帮助您在MindSpeed框架下实现 Qwen3-Coder-Next模型的无缝运行。

02 环境配置

硬件要求

qwen3_coder_next的参考硬件配置如下,本文将以4台Atlas 900 A3 SuperPoD 32卡训练和在线推理对话为例进行介绍:

MindSpeed LLM仓库部署

MindSpeed LLM的主要依赖配套如下表,安装步骤参考安装指导(https://gitcode.com/Ascend/MindSpeed-LLM/blob/master/docs/pytorch/install_guide.md)。

1. 仓库拉取

git clone https://gitcode.com/ascend/MindSpeed-LLM.git git clone https://github.com/NVIDIA/Megatron-LM.git # megatron从github下载,请确保网络能访问 cd Megatron-LM git checkout core_v0.12.1 cp -r megatron ../MindSpeed-LLM/ cd ../MindSpeed-LLM git checkout master pip3 install -r requirements.txt mkdir logs mkdir dataset mkdir ckpt

2. 环境搭建

torch npu 与 CANN包参考链接:https://support.huawei.com/enterprise/zh/ascend-computing/cann-pid-251168373/software

# python3.10 conda create -n test python=3.10 conda activate test # 安装 torch 和 torch_npu,注意要选择对应python版本、x86或arm的torch、torch_npu及apex包 pip install torch-2.7.1-cp310-cp310m-manylinux2014_aarch64.whl pip install torch_npu-2.7.1*-cp310-cp310m-linux_aarch64.whl # apex for Ascend 参考 https://gitee.com/ascend/apex # 建议从原仓编译安装 # 使能环境变量 source /usr/local/Ascend/cann/set_env.sh # 修改为实际安装的Toolkit包路径 source /usr/local/Ascend/nnal/atb/set_env.sh # 修改为实际安装的nnal包路径 # 安装加速库 git clone https://gitcode.com/ascend/MindSpeed.git cd MindSpeed git checkout master # checkout commit from MindSpeed master pip3 install -r requirements.txt pip3 install -e . cd .. # 安装其余依赖库 pip install -r requirements.txt

03权重转换

权重下载

从魔乐社区下载权重和配置文件:

https://modelers.cn/models/Qwen-AI/Qwen3-Coder-Next

权重转换

MindSpeed LLM提供脚本将已开源权重转换为mcore权重,用于训练、推理、评估等任务。

脚本链接:https://gitcode.com/Ascend/MindSpeed-LLM/blob/master/examples/mcore/qwen3_coder_next/ckpt_convert_qwen3_coder_next_80b_hf2mcore.sh

使用方法如下,请根据实际需要的TP/PP等切分策略和权重路径修改权重转换脚本。

cd MindSpeed-LLM bash examples/mcore/qwen3_coder_next/ckpt_convert_qwen3_coder_next_80b_hf2mcore.sh

04数据预处理

预训练数据预处理

MindSpeed LLM提供脚本进行数据集处理(https://gitcode.com/Ascend/MindSpeed-LLM/blob/master/examples/mcore/qwen3_coder_next/data_convert_qwen3_coder_next_pretrain.sh)。

使用方法如下:

cd MindSpeed-LLM bash examples/mcore/qwen3_coder_next/data_convert_qwen3_coder_next_pretrain.sh

请根据实际需要修改以下参数:

微调数据预处理

MindSpeed LLM提供脚本进行数据集处理(https://gitcode.com/Ascend/MindSpeed-LLM/blob/master/examples/mcore/qwen3_coder_next/data_convert_qwen3_coder_next_instruction.sh)

使用方法如下:

cd MindSpeed-LLM bash examples/mcore/qwen3_coder_next/data_convert_qwen3_coder_next_instruction.sh

请根据实际需要修改以下参数:

05预训练

执行以下命令:

cd MindSpeed-LLM bash examples/mcore/qwen3_coder_next/pretrain_qwen3_coder_next_80b_4K_A3_ptd.sh

需要根据实际情况修改脚本中以下变量:

06微调

执行以下命令:

cd MindSpeed-LLM bash examples/mcore/qwen3_coder_next/tune_qwen3_coder_next_80b_4K_full_ptd.sh

需要根据实际情况修改脚本中以下变量:

07在线推理对话

执行以下命令:

cd MindSpeed-LLM bash examples/mcore/qwen3_coder_next/generate_qwen3_coder_next_80b_ptd.sh

需要根据实际情况修改脚本中以下变量:

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/4/20 11:59:56

Hive高级特性详解:CTE、窗口函数、UDF开发,带你从初级到资深

Hive高级特性详解:CTE、窗口函数、UDF开发,带你从初级到资深 1. 引入与连接 引人入胜的开场 想象一下,你是一家大型电商公司的数据分析师,每天都要处理海量的销售数据。有一天,老板突然要求你分析过去一个月内每个客户…

作者头像 李华
网站建设 2026/4/20 1:44:12

数据库容器和 Kubernetes 演进

在容器化环境中运行数据库的旅程是一次变革性的过程,标志着与早期 Kubernetes 主要为无状态应用程序设计的时代相比发生了重大转变。如今,容器化数据库代表了一种成熟的技术堆栈,使组织能够以与应用程序层相同的敏捷性和可扩展性来管理数据工…

作者头像 李华
网站建设 2026/4/19 3:48:39

学考赋能哪家优?泛微青蓝阁、考试星、酷学院、云学堂实力拆解

随着企业数字化人才培育进入“精准化、合规化”深水区,学习培训考试平台已从基础辅助工具,升级为企业搭建学练考闭环、赋能员工成长的核心载体。据《2026年企业学考数字化白皮书》显示,国内该领域市场规模已突破900亿元,AI赋能、合…

作者头像 李华
网站建设 2026/4/25 7:43:09

如何创建一个PR

第一阶段:本地准备 (在终端操作) 这几步是为了确保你的代码在本地是干净、准确地打包好的。 1. 确认身份 git branch 作用:查看当前所在的分支。 检查点:必须看到 * crj_develop(你的名字分支)是绿色的。 为什么&…

作者头像 李华