news 2026/4/20 19:15:14

常见的微调的方式有哪些?(Lora...)

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
常见的微调的方式有哪些?(Lora...)

1.LoRA(Low-Rank Adaptation)

核心思想: 不修改原始权重,旁路添加低秩矩阵

┌─────────────────────────────────┐
│ 原始Linear层 (W: 4096×4096) │
│ ❄️ 冻结不训练 │
│ ↓ x │
│ W·x (输出) │
└─────────────────────────────────┘
+ (相加)
┌─────────────────────────────────┐
│ LoRA旁路 │
│ x → A(8×4096) → B(4096×8) │
│ 🔥 只训练这两个矩阵 │
│ ↓ │
│ B·A·x (输出) │
└─────────────────────────────────┘

2.Prompt Tuning

核心思想: 在输入序列前添加可学习的"软提示词"

原始输入:
[The, movie, is, great] → Encoder → 输出

Prompt Tuning:
[P1, P2, P3, ..., Pk, The, movie, is, great] → Encoder → 输出
↑____________↑
可学习的soft prompts
(只训练这些)

具体做法:

  • 模型权重全部冻结
  • 只在输入前添加 k 个可学习的embedding向量 (比如20个)
  • 只训练这20个向量
  • 参数量: 极少 (20 × 768维 ≈ 15K参数)

输入层:
┌──────────────────────────────────────┐
│ [🔥P₁] [🔥P₂] [🔥P₃] ... [🔥Pₖ] │ ← 可训练的prompt embeddings
│ [❄️The] [❄️movie] [❄️is] [❄️great] │ ← 真实输入(正常处理)
└──────────────────────────────────────┘

❄️ Transformer层 (冻结)

输出

3.Adapter

核心思想: 在Transformer层之间插入小型瓶颈网络

原始Transformer块: Input → Self-Attention → Add&Norm → FFN → Add&Norm → Output 加入Adapter后: Input → Self-Attention → Add&Norm → [🔥Adapter] → FFN → Add&Norm → [🔥Adapter] → Output ↑ ↑ 新插入的模块 新插入的模块

具体做法:

  • Transformer层冻结
  • 在每层后插入Adapter模块
  • 只训练Adapter参数
  • 参数量: 1-3% (取决于bottleneck大小)

4.IA3(Infused Adapter by Inhibiting and Amplifying Inner Activations)【基本不用】

核心思想: 用可学习的缩放向量调整激活值

原始: h = W·x IA3: h = (W · diag(l)) · x = W · (l ⊙ x) ↑ ↑ 可学习的缩放向量 逐元素相乘

具体做法:

  • 权重矩阵W冻结
  • 只学习一个缩放向量l(长度等于输入维度)
  • 将输入x逐元素乘以l,然后再乘以W
  • 参数量: 极少 (每层只有一个向量, 比如768个参数)

可视化:

对于 K、V、FFN 的投影: 输入 x (768维) ↓ x ⊙ l_k (逐元素相乘) ← 🔥 l_k是768维可训练向量 ↓ ❄️ W_k · (缩放后的x) ← W_k冻结 ↓ 输出

5.Full FT(Full Fine-Tuning / 全量微调)

核心思想: 所有参数都训练

预训练模型的所有参数 → 🔥全部解冻 → 在下游任务上训练

具体做法:

  • 加载预训练权重
  • 所有层的所有参数都设为可训练
  • 在目标数据集上重新训练
  • 参数量: 100%

6.固定Encoder(Feature Extraction)

核心思想: 把预训练模型当特征提取器,只训练新加的分类头

输入 → ❄️Encoder(冻结) → 特征 → 🔥分类头(新建+训练) → 输出

具体做法:

  • Encoder所有层冻结
  • 去掉原来的输出层,加一个新的(比如线性层)
  • 只训练这个新的分类头
  • 参数量: <1% (只有分类头)

https://mp.weixin.qq.com/s/aAIuZ8LH3flnxNLtlP6d0w

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/4/18 22:27:59

中文情感分析WebUI搭建:StructBERT轻量CPU版部署步骤详解

中文情感分析WebUI搭建&#xff1a;StructBERT轻量CPU版部署步骤详解 1. 背景与应用场景 在当前自然语言处理&#xff08;NLP&#xff09;广泛应用的背景下&#xff0c;中文情感分析已成为智能客服、舆情监控、用户评论挖掘等场景中的核心技术之一。通过自动识别文本中蕴含的…

作者头像 李华
网站建设 2026/4/18 20:57:43

StructBERT实战教程:产品评论情感倾向分析

StructBERT实战教程&#xff1a;产品评论情感倾向分析 1. 引言 1.1 中文情感分析的现实需求 在电商、社交平台和用户反馈系统中&#xff0c;每天都会产生海量的中文文本数据。如何从这些非结构化语料中自动识别用户的情绪倾向——是满意还是不满&#xff1f;这是企业进行舆情…

作者头像 李华
网站建设 2026/4/17 1:47:07

AI智能体联邦学习方案:数据不出域,联合建模省下百万算力

AI智能体联邦学习方案&#xff1a;数据不出域&#xff0c;联合建模省下百万算力 1. 为什么医疗机构需要联邦学习&#xff1f; 想象一下&#xff0c;你是一家医院的AI研发负责人。医院积累了大量的患者CT影像数据&#xff0c;想训练一个肺癌早期筛查模型。但问题来了&#xff…

作者头像 李华
网站建设 2026/4/18 10:23:29

StructBERT轻量级情感分析:企业教程

StructBERT轻量级情感分析&#xff1a;企业教程 1. 中文情感分析的应用价值与挑战 在当今数字化时代&#xff0c;企业每天都会产生海量的用户反馈、评论、客服对话等非结构化文本数据。如何从中快速提取有价值的情绪信息&#xff0c;成为提升客户体验、优化产品策略的关键环节…

作者头像 李华
网站建设 2026/4/19 5:47:51

中文文本情绪识别模型比较:StructBERT性能评测

中文文本情绪识别模型比较&#xff1a;StructBERT性能评测 1. 引言&#xff1a;中文情感分析的技术背景与挑战 随着社交媒体、电商平台和用户评论系统的普及&#xff0c;中文文本情感分析已成为自然语言处理&#xff08;NLP&#xff09;领域的重要应用方向。其核心目标是自动…

作者头像 李华
网站建设 2026/4/20 13:46:07

中文情感分析实战:StructBERT轻量CPU版

中文情感分析实战&#xff1a;StructBERT轻量CPU版 1. 背景与应用场景 随着社交媒体、电商平台和用户评论系统的普及&#xff0c;中文情感分析已成为自然语言处理&#xff08;NLP&#xff09;中最具实用价值的技术之一。无论是品牌舆情监控、客服反馈分类&#xff0c;还是产品…

作者头像 李华