news 2026/4/26 21:59:56

训练中断怎么办?checkpoint恢复方法详解

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
训练中断怎么办?checkpoint恢复方法详解

训练中断怎么办?checkpoint恢复方法详解

1. 为什么训练中断是高频痛点

你刚启动 Qwen2.5-7B 的 LoRA 微调,看着进度条跳到step 387/500,正准备去泡杯咖啡——屏幕突然黑了。
不是显卡炸了,是宿舍断电;不是代码报错,是服务器被误杀进程;不是模型崩了,是Ctrl+C按错了位置。

这不是小概率事件。在单卡 RTX 4090D 上跑 10 轮微调,平均会遇到 2~3 次意外中断:

  • 本地开发时系统休眠、SSH 断连、笔记本合盖
  • 云服务器因资源抢占被强制回收 GPU
  • 数据集读取异常触发静默退出
  • save_steps=50却在 step 47 时 OOM 崩溃

更糟的是,ms-swift 默认不会自动续训——它把 checkpoint 当作“成果快照”,而非“存档点”。
你重启后发现:output/目录下只有checkpoint-50checkpoint-100,而中间的 47 步、83 步、142 步全没了。
重头来过?10 小时训练再烧一遍?不,其实你只需要 3 分钟,就能从任意中断点继续。

本文不讲原理,只给可执行方案。所有命令已在 RTX 4090D + ms-swift v1.10 环境实测通过,支持从checkpoint-XX精确恢复,包括梯度状态、优化器参数、学习率调度器和数据加载器偏移量。


2. checkpoint 恢复前必做的三件事

2.1 确认中断类型,决定恢复策略

不是所有中断都适合续训。先快速判断你的场景属于哪一类:

中断类型特征是否支持恢复恢复关键点
优雅中断手动Ctrl+Ckill -15进程、训练完成前主动停止完全支持--resume_from_checkpoint指向最新 checkpoint
硬崩溃OOM、CUDA error、Segmentation fault、电源断电部分支持需验证 checkpoint 完整性(见 2.2)
静默退出进程消失但无报错、日志停在某 step 后不再更新❌ 不建议恢复可能已损坏,优先检查logging_steps输出

实操提示:打开/root/output/目录,运行ls -lt checkpoint-*查看最新 checkpoint 时间戳。若该目录下存在pytorch_model.binoptimizer.ptscheduler.ptrng_state.pth四个文件,则大概率可恢复。

2.2 验证 checkpoint 完整性(两行命令搞定)

别急着续训。很多“看似可用”的 checkpoint 实际缺关键文件,强行恢复会导致 loss 突增或 NaN。

进入训练输出目录,执行:

cd /root/output # 检查核心文件是否存在(必须全部存在) ls -l checkpoint-*/pytorch_model.bin checkpoint-*/optimizer.pt \ checkpoint-*/scheduler.pt checkpoint-*/rng_state.pth 2>/dev/null | wc -l

预期输出为 4:说明 checkpoint 完整,可安全恢复
输出小于 4:缺失文件,跳过该 checkpoint,尝试前一个(如checkpoint-50checkpoint-0

为什么rng_state.pth如此重要?
它保存了 PyTorch 随机数生成器的状态。若缺失,数据打乱顺序将与中断前不一致,导致 batch 重复或遗漏——微调效果直接打折。

2.3 备份原始 checkpoint(防手滑覆盖)

恢复过程会写入新文件。为防误操作覆盖原 checkpoint,请先备份:

# 假设你要从 checkpoint-142 恢复 cp -r output/checkpoint-142 output/checkpoint-142-backup

这一步耗时不到 1 秒,却能避免“恢复失败+原档损坏”的双重灾难。


3. 三种恢复方式,按场景精准选用

3.1 方式一:标准续训(推荐|90% 场景适用)

适用于优雅中断、checkpoint 完整、且你希望完全复现原训练流程的场景。

核心命令(替换checkpoint-142为你实际的 checkpoint 名):

CUDA_VISIBLE_DEVICES=0 \ swift sft \ --model Qwen2.5-7B-Instruct \ --train_type lora \ --dataset self_cognition.json \ --torch_dtype bfloat16 \ --num_train_epochs 10 \ --per_device_train_batch_size 1 \ --per_device_eval_batch_size 1 \ --learning_rate 1e-4 \ --lora_rank 8 \ --lora_alpha 32 \ --target_modules all-linear \ --gradient_accumulation_steps 16 \ --eval_steps 50 \ --save_steps 50 \ --save_total_limit 2 \ --logging_steps 5 \ --max_length 2048 \ --output_dir output \ --system 'You are a helpful assistant.' \ --warmup_ratio 0.05 \ --dataloader_num_workers 4 \ --model_author swift \ --model_name swift-robot \ --resume_from_checkpoint output/checkpoint-142

关键参数解析

  • --resume_from_checkpoint output/checkpoint-142:指定恢复起点(路径必须完整,不能只写checkpoint-142
  • 无需修改其他参数:ms-swift 会自动读取trainer_state.json中的global_stepepochbest_metric等状态
  • 自动对齐数据DataLoader会从上一个 epoch 的step % len(train_dataset)位置继续,不重复也不跳过

实测效果:从checkpoint-142恢复后,step 143的 loss 与中断前step 142的 loss 偏差 < 0.001,训练曲线平滑衔接。

3.2 方式二:强制指定起始步数(调试专用)

当你发现checkpoint-142trainer_state.jsonglobal_step记录错误(如显示130),或想跳过某些不稳定 step 时使用。

操作步骤

  1. 打开output/checkpoint-142/trainer_state.json
  2. 找到"global_step": 142行,手动改为"global_step": 143
  3. 保存文件,再执行方式一命令

为什么有效?
ms-swift 在恢复时优先读取trainer_state.json中的global_step,而非目录名。改这个值,就等于告诉框架:“请从第 143 步开始,前面的已训练完毕”。

3.3 方式三:跨设备恢复(多卡→单卡|单卡→多卡)

镜像默认针对单卡 4090D 优化,但你可能在 A100 集群上中断,又想在本地 4090D 继续。此时需处理设备映射冲突。

问题现象
恢复时报错RuntimeError: Expected all tensors to be on the same deviceKeyError: 'module.model...'

解决方案(两步修复):

# 步骤1:用 Python 脚本清理 checkpoint 中的设备标记 cat > fix_checkpoint.py << 'EOF' import torch import os import sys ckpt_path = sys.argv[1] print(f"Fixing {ckpt_path}...") # 加载 optimizer state opt_path = os.path.join(ckpt_path, "optimizer.pt") if os.path.exists(opt_path): opt = torch.load(opt_path, map_location="cpu") # 清理 optimizer 中的 device 信息 for state in opt["state"].values(): if "exp_avg" in state: state["exp_avg"] = state["exp_avg"].cpu() if "exp_avg_sq" in state: state["exp_avg_sq"] = state["exp_avg_sq"].cpu() torch.save(opt, opt_path) print("✓ Fixed optimizer.pt") # 步骤2:重写 trainer_state.json 中的 device 字段 state_path = os.path.join(ckpt_path, "trainer_state.json") if os.path.exists(state_path): with open(state_path, "r") as f: state = json.load(f) # 强制设为 cpu,让 ms-swift 自动重映射 state["log_history"] = [{"device": "cpu"}] + state.get("log_history", []) with open(state_path, "w") as f: json.dump(state, f, indent=2) print("✓ Fixed trainer_state.json") EOF python fix_checkpoint.py output/checkpoint-142

完成后,再执行方式一命令即可无缝跨设备恢复。


4. 恢复后必须验证的三件事

恢复不是终点,验证才是关键。以下检查项缺一不可:

4.1 检查训练日志是否连续

打开output/run_log.txt(或终端实时日志),确认:

  • 第一行恢复日志包含Resumed from checkpoint at output/checkpoint-142
  • global_step143开始递增(非从1重置)
  • loss值与中断前最后 3 步趋势一致(如中断前 loss:[2.11, 2.09, 2.07],恢复后应为[2.05, 2.03, ...]

避坑提示:若loss突然飙升(如从2.07跳到5.32),说明rng_state.pth缺失或dataloader未对齐,立即中止并回退到备份 checkpoint。

4.2 验证数据加载无重复/遗漏

self_cognition.json中添加一条唯一测试样本:

{"instruction": "【DEBUG】请回答本条指令的序号", "input": "", "output": "142"}

然后观察恢复后的第 143 步训练日志中,是否出现该样本的 loss 计算。若未出现,说明DataLoader未正确恢复偏移量。

4.3 快速推理验证身份一致性

恢复训练 5 步后,立即用swift infer测试:

CUDA_VISIBLE_DEVICES=0 \ swift infer \ --adapters output/checkpoint-147 \ # 注意:用恢复后的新 checkpoint --stream true \ --temperature 0 \ --max_new_tokens 2048

输入你是谁?,确认回答仍为“我是一个由 CSDN 迪菲赫尔曼 开发和维护的大语言模型。”
若变回原始模型回答(“我是阿里云开发的...”),说明 LoRA 权重未正确加载,检查--adapters路径是否指向最新 checkpoint。


5. 预防中断的四大工程化实践

恢复是补救,预防才是根本。以下是我们在 20+ 次 Qwen2.5-7B 微调中沉淀的实战经验:

5.1 将save_steps设为动态值

镜像默认--save_steps 50,但在 10 轮训练中,总 step 数 =len(dataset) / (batch_size * n_gpu) * epochs。若 dataset 仅 50 条,per_device_train_batch_size=1,则每轮仅 50 步——save_steps=50导致每轮只存 1 个 checkpoint。

优化方案

# 计算合理 save_steps:确保每轮至少保存 3 次 # 公式:save_steps = total_steps_per_epoch // 3 # 示例:50 条数据 → 50 steps/epoch → save_steps=16 --save_steps 16

5.2 启用自动健康检查

在训练命令中加入--disable_tqdm false,并用脚本监控:

# 启动训练后,另开终端运行 watch -n 30 'tail -n 5 /root/output/run_log.txt | grep "loss"'

若 60 秒无 loss 输出,自动告警(说明卡死)。

5.3 使用nohup+screen双保险

避免 SSH 断连导致进程终止:

# 创建 screen 会话 screen -S qwen-finetune # 在 screen 内运行训练(加 nohup 防后台中断) nohup bash -c 'CUDA_VISIBLE_DEVICES=0 swift sft ...' > train.log 2>&1 & # 按 Ctrl+A, D 脱离 screen,训练持续运行

5.4 设置显存安全阈值

RTX 4090D 显存 24GB,但微调峰值常达 22.5GB。预留 1.5GB 防止突发 OOM:

# 在训练命令前加显存限制(需 nvidia-docker 支持) nvidia-docker run --gpus '"device=0"' --memory=22g ...

或在 Python 层加监控(需修改 ms-swift 源码),此处略。


6. 总结

训练中断不可怕,可怕的是没有恢复预案。本文给出的方案已在真实生产环境中验证:

  • 3 分钟内完成恢复:从发现中断到重新训练,全程不超过 180 秒
  • 零精度损失:恢复后 loss 曲线与中断前无缝衔接,最终效果无差异
  • 全场景覆盖:优雅中断、硬崩溃、跨设备迁移均提供对应解法
  • 防错设计:完整性校验、自动备份、三重验证,杜绝“越恢复越糟”

记住三个口诀:
一看ls -l checkpoint-*/确认文件完整
二备cp -r checkpoint-X checkpoint-X-backup
三启--resume_from_checkpoint output/checkpoint-X

从此,断电、断网、误操作,都不再是微调路上的拦路虎。

--- > **获取更多AI镜像** > > 想探索更多AI镜像和应用场景?访问 [CSDN星图镜像广场](https://ai.csdn.net/?utm_source=mirror_blog_end),提供丰富的预置镜像,覆盖大模型推理、图像生成、视频生成、模型微调等多个领域,支持一键部署。
版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/4/25 12:25:14

语音安全新玩法:用CAM++做高精度说话人身份验证

语音安全新玩法&#xff1a;用CAM做高精度说话人身份验证 1. 为什么说话人验证突然变得重要&#xff1f; 你有没有遇到过这些场景&#xff1a; 公司内部系统登录&#xff0c;只靠密码总觉得不放心远程会议中&#xff0c;有人冒充同事发号施令客服电话里&#xff0c;对方声称…

作者头像 李华
网站建设 2026/4/21 23:46:52

Linux系统中x64与arm64浮点运算性能优化深度剖析

以下是对您提供的技术博文进行 深度润色与重构后的版本 。我严格遵循您的全部要求&#xff1a; ✅ 彻底去除AI痕迹&#xff0c;语言自然如资深工程师现场分享&#xff1b; ✅ 摒弃“引言/概述/总结”等模板化结构&#xff0c;全文以逻辑流驱动、层层递进&#xff1b; ✅ 所…

作者头像 李华
网站建设 2026/4/17 9:35:36

校园广播存档方案:老旧音频资料数字化转型实践

校园广播存档方案&#xff1a;老旧音频资料数字化转型实践 校园广播站&#xff0c;是许多师生青春记忆的声源地。那些清晨的英语听力、午间的校园新闻、傍晚的点歌栏目&#xff0c;曾通过老式磁带机、CD播放器和调频发射设备&#xff0c;一遍遍传入教室与宿舍。然而&#xff0…

作者头像 李华
网站建设 2026/4/25 23:22:52

如何用Qwen-Image-Layered实现精准图像内容修改?

如何用Qwen-Image-Layered实现精准图像内容修改&#xff1f; Qwen-Image-Layered不是另一个“生成即结束”的图像模型&#xff0c;而是一次对图像编辑范式的重新定义。它不满足于在整张图上粗粒度地涂抹或覆盖&#xff0c;而是把一张图拆解成多个透明图层——就像专业设计师在…

作者头像 李华
网站建设 2026/4/10 8:49:30

实测SenseVoiceSmall性能,4090上秒级出结果真快

实测SenseVoiceSmall性能&#xff0c;4090上秒级出结果真快 语音识别早已不是简单“听清说了啥”的阶段。当一段录音里既有说话声&#xff0c;又有突然的笑声、背景音乐、甚至一声叹息&#xff0c;传统ASR模型往往只顾着转文字&#xff0c;把情绪和环境音全当噪音过滤掉——而…

作者头像 李华
网站建设 2026/4/25 16:20:52

零代码体验Qwen-Image-2512-ComfyUI,内置工作流真香了

零代码体验Qwen-Image-2512-ComfyUI&#xff0c;内置工作流真香了 1. 引言&#xff1a;不用写一行代码&#xff0c;也能玩转国产最强图像生成模型 你有没有过这样的经历&#xff1a;看到别人用AI生成一张惊艳的海报&#xff0c;自己也想试试&#xff0c;结果卡在安装环境、配…

作者头像 李华