对于刚接触大模型微调的小白,或是追求高效开发的程序员来说,LoRA绝对是绕不开的核心方法——它无需高性能硬件,就能以极小的参数量,实现媲美全参数微调的效果,堪称资源受限环境下的“微调神器”。本文从基础概念、原理拆解、优势对比、实验验证到实操配置,层层递进讲透LoRA,新手可直接收藏跟着学,程序员可快速get核心用法落地项目。
LoRA是一种高效的大模型微调技术,核心逻辑是通过低秩分解,将模型权重更新转化为两个小型矩阵(A矩阵与B矩阵)的运算,同时冻结原始模型的权重,不做任何修改。整个微调过程,仅需训练占原模型0.01%-1%的参数,就能达到甚至超越全参数微调的性能;更关键的是,它在推理阶段效率极高,不占用输入空间,可直接嵌入原有模型结构,灵活性和适应性拉满。经过大量实验验证,在文本生成、自然语言推理、结构化查询等各类NLP任务中,LoRA都能以极小的参数量实现一流性能,是小白入门微调、程序员落地项目的最优选择之一。
一、LoRA基础认知(小白必看,程序员快速回顾)
LoRA全称是Low-Rank Adaptation of Large Language Models(大语言模型低秩适配),属于PEFT(参数高效微调)中基于重参数化的训练方法——所谓PEFT,就是无需微调模型全部参数,仅调整部分关键参数,就能让大模型适配特定任务,而LoRA是其中最常用、最高效的一种。
为了打破“全参数微调耗资源、门槛高”的痛点,LoRA提出了一个核心思路:用低秩分解将权重更新表示为两个小型更新矩阵。这两个新矩阵(A和B)可以在适配新任务、学习新数据的同时,控制整体参数变化量,避免冗余计算;而原始模型的权重矩阵会被全程冻结,不参与任何梯度更新,最终的模型输出的是“原始权重输出+LoRA适配器输出”的叠加结果。
关键概念:什么是“低秩”?(通俗比喻+专业解读)
“低秩”是线性代数中的基础概念,很多小白看到会头疼,这里用一个生活化的比喻,一次性讲明白,程序员也能快速对应到技术逻辑:
假设你有一本“100道菜的完整菜谱”,可以看作一个100×100的大矩阵——每一行代表一道菜,每一列代表一种食材的用量,矩阵中的每个数值就是某道菜对应某种食材的具体用量,如下表所示:
| 菜谱 | 鸡蛋 | 面粉 | 糖 | 牛奶 | 番茄 | …(100种食材) |
|---|---|---|---|---|---|---|
| 蛋糕1 | 2 | 200 | 100 | 100 | 0 | … |
| 蛋糕2 | 3 | 250 | 120 | 120 | 0 | … |
| 蛋糕3 | 2 | 210 | 110 | 110 | 0 | … |
| … | … | … | … | … | … | … |
| 番茄炒蛋1 | 3 | 0 | 0 | 0 | 2 | … |
| 番茄炒蛋2 | 4 | 0 | 0 | 0 | 3 | … |
观察后你会发现,这100道菜其实可以归纳为两大类:蛋糕和番茄炒蛋。其中,所有蛋糕的菜谱,本质上都是鸡蛋、面粉、糖、牛奶的不同用量组合,完全用不到番茄;所有番茄炒蛋的菜谱,都是鸡蛋和番茄的用量组合,用不到面粉、糖、牛奶——这就对应了“低秩”的核心逻辑:
低秩意味着一个矩阵内部存在大量冗余和重复性信息,这些信息无需用原矩阵的全部尺寸来存储,只需用少量“核心元素”就能概括和还原。
对应到菜谱的例子,我们无需维护100×100的大矩阵(10000个数据),只需两步就能高效还原所有菜谱,这就是低秩近似的实操逻辑,也是LoRA的核心思想:
\1. 定义“基础菜系”(低维核心):只需两个基础向量,就能概括所有100道菜的核心逻辑——蛋糕向量[鸡蛋, 面粉, 糖, 牛奶](比如默认比例[1, 100, 50, 50])、番茄炒蛋向量[鸡蛋, 番茄](默认比例[1, 1]);
\2. 记录“组合系数”:每道菜只需记录它如何由两个基础向量组合而成——比如蛋糕1=2.0×蛋糕向量+0×番茄炒蛋向量,番茄炒蛋1=0×蛋糕向量+3.0×番茄炒蛋向量。
最终,我们只需2个基础向量(200个数据)+100道菜的组合系数(200个数据),总共400个数据,就能完美还原原本10000个数据的信息——这里的“2”,就是“秩(Rank)”,用秩为2的表示法,就能高效近似原始大矩阵。
补充提示(程序员重点):LoRA中,“秩(r)”是可配置的超参数,通常设置为4、8、16,无需过大,过大反而会增加冗余,违背低秩的核心假设,这一点在后面的实操配置中会详细说明。
二、LoRA核心原理拆解(图文结合,小白能懂,程序员能落地)
LoRA的本质,是在原始预训练大模型(PLM)的基础上,增加一个“外挂式适配器”,这个适配器由两个小矩阵A和B组成,通过A、B的相乘,模拟原始权重的更新量(ΔW),同时冻结原始权重,避免全量微调的资源消耗。
下图是LoRA在微调大模型某一层(比如Transformer层)时的具体实现细节,结合图中结构,拆解每一部分的作用,小白能快速理解原理,程序员能对应到代码逻辑:
1. 整体设计逻辑
LoRA的适配器(A、B矩阵)与原始预训练模型的输入、输出维度保持一致(均为d),确保适配器能无缝嵌入原始模型,不改变模型的整体结构和输入输出格式——这也是LoRA推理高效、兼容性强的关键原因。
核心流程:输入x(来自上一层的d维向量)→ 原始模型(冻结权重)输出W₀(x) → LoRA适配器(A、B矩阵)输出BA(x) → 最终输出h = W₀(x) + BA(x),即原始输出加适配器的增量输出,实现模型适配特定任务。
2. 各部分详细解读(小白逐句看,程序员抓重点)
(1)左侧:冻结的原始预训练模型
图中左侧的Pretrained Weights,是原始预训练模型的权重矩阵,维度通常为d×k(d是输入维度,k是输出维度,为了简化计算,通常假设d=k,所以图中写为d×d)。
重点:微调过程中,这个原始权重矩阵会被“冻结(freeze)”,也就是权重值Wo始终保持不变,不参与任何梯度更新——这是LoRA节省资源的核心:无需更新千万、上亿的原始参数,只需更新适配器的少量参数。
(2)右侧:LoRA适配器(核心部分,A、B矩阵详解)
这就是LoRA的“外挂”结构,仅由两个小矩阵组成,也是整个微调过程中唯一需要训练的部分,参数量极少(占原模型0.01%-1%),具体拆解:
① 矩阵A(降维矩阵):维度为r×k(r是秩,远小于d,即r≪d),核心作用是将输入x(d维)投影到低维空间(r维),捕捉任务所需的核心变化信息——相当于筛选出原始输入中,与当前任务相关的关键特征,去掉冗余信息。
补充(程序员重点):矩阵A的初始化有固定逻辑,训练开始时,权重从均值为0的高斯分布(A = N(0, σ²))中随机初始化,确保初始状态不会干扰原始模型的输出。
② 矩阵B(升维矩阵):维度为d×r,核心作用是将经过A矩阵降维后的r维数据,重新映射回d维空间,确保适配器的输出能与原始模型的输出(d维)叠加兼容——相当于把筛选后的关键特征,放大到与原始模型输出一致的维度,实现无缝融合。
补充(程序员重点):矩阵B的初始化更巧妙,训练开始时,权重全部初始化为0(B = 0),这意味着训练初期,LoRA适配器的输出为0,模型完全依赖原始预训练模型的输出,不会因为适配器的加入导致性能波动,实现“平稳过渡”,后续随着训练推进,B矩阵的权重逐渐更新,适配器开始发挥作用。
(3)最终输出:合并结果
如前文所述,最终这一层的输出h = W₀(x) + BA(x),其中BA(x)就是LoRA适配器模拟的权重更新量ΔW(维度d×k),因为r很小,所以BA是一个低秩矩阵,既实现了权重更新,又避免了冗余计算。
补充提示(小白易懂):相当于原始模型是“基础版手机”,LoRA适配器是“专属插件”,插件不改变手机本身(冻结原始权重),但能通过简单配置(训练A、B矩阵),让手机实现特定功能(适配新任务),而且插件体积小(参数量少),不占用手机内存(不占用输入空间),使用起来不卡顿(推理高效)。
三、LoRA核心优势(对比主流方法,小白知优势,程序员知选型)
LoRA之所以成为小白和程序员的首选,核心是它解决了“微调效率、性能、资源”三者的平衡,对比当前主流的PEFT方法(Adapter、Soft Prompts),优势非常明显,下面分场景对比,重点标注小白关注的“易上手”和程序员关注的“高效、落地性”。
1. 对比Adapter方法(最常用的同类适配器方法)
Adapter是另一种常用的参数高效微调方法,核心是在模型层间插入小型神经网络(适配器),但对比LoRA,存在明显短板,LoRA的优势主要体现在两点:
(1)推理性能更高效,无额外延时
Adapter需要在模型层间插入新的神经网络,会增加网络深度,进而增加推理时的计算量和延时;而LoRA在推理阶段,可直接将训练好的A、B矩阵合并为ΔW,替换原始模型的对应参数(或叠加输出),推理过程与全参数微调几乎一致,不增加任何额外计算负担,也不占用输入空间,速度更快,更适合部署。
(2)性能更优,可媲美甚至超越全参数微调
Adapter的微调效果,往往略低于全参数微调;而LoRA通过对模型关键权重(如Transformer的Attention层)的低秩调整,能精准捕捉任务特征,模拟全参数微调的效果,甚至在部分任务上(如自然语言推理、对话摘要),性能超过全参数微调。
补充(程序员重点):LoRA的A、B矩阵可灵活卸载和替换,不同任务训练的A、B矩阵,可快速切换,无需重新微调整个模型,部署效率更高;而Adapter的适配器与模型层深度绑定,切换任务时灵活性较差。
2. 对比Soft Prompts方法(提示词微调方法)
Soft Prompts(软提示)是通过优化输入提示词的嵌入向量,实现模型微调,无需修改模型权重,但这种方法的局限性很明显,LoRA的优势更突出:
(1)可实现更深层次的模型修改,适配性更强
Soft Prompts仅作用于输入层级,通过引导输入来影响模型输出,无法修改模型内部的权重机制,对复杂任务(如文本转SQL、长文本摘要)的适配效果有限;而LoRA直接修改模型的核心权重矩阵,能影响模型的内部表示和处理机制,适配更复杂的任务,效果更优。
(2)不占用输入空间,无序列长度限制
Soft Prompts需要占用模型的输入序列长度,比如设置10个token的软提示,就会占用10个输入位置,在输入序列长度有限的场景(如部分对话模型、短文本任务),会限制实际输入内容的长度;而LoRA不依赖输入提示词,不占用任何输入空间,完全不影响模型的输入长度限制,适用性更广。
(3)灵活性更高,可针对性微调
LoRA可根据具体任务,选择模型的特定层(如Attention层的W_q、W_k、W_v、W_o矩阵)进行微调,可精准控制微调范围,平衡性能和资源消耗;而Soft Prompts的微调范围固定(仅输入嵌入层),无法针对性优化,对于部分任务,容易出现欠拟合。
总结(必看)
LoRA的核心优势:参数量极少(0.01%-1%)、推理高效、不占用输入空间、性能媲美全参数微调、灵活性强,既能满足小白“低门槛入门微调”的需求(无需高性能GPU),也能满足程序员“高效部署、多任务适配”的落地需求,是目前最通用、最实用的大模型微调方法。
四、LoRA实验数据验证(用数据说话,小白放心学,程序员放心用)
很多小白和程序员会担心:LoRA参数量这么少,性能真的能达标吗?下面结合两组核心实验数据,直观展示LoRA的性能优势,所有数据均来自公开实验,可直接参考落地。
数据1:不同任务上的性能对比(WikiSQL+MultiNLI)
实验覆盖两种截然不同的NLP任务:WikiSQL(结构化数据查询,将文本转化为SQL语句)、MultiNLI-matched(自然语言推理,判断两个句子的逻辑关系),对比LoRA与其他PEFT方法、全参数微调的性能,如下图所示:
图表解读(重点看3点,小白也能看懂):
\1. 横轴是“可训练参数数量的对数(log10(# Trainable Parameters))”,数值越小,参数量越少;纵轴是“验证准确率”,数值越高,性能越好;
\2. WikiSQL任务:LoRA的性能显著优于PrefixEmbed、PrefixLayer、Adapter等其他PEFT方法,并且**匹配甚至超过全参数微调(Fine-Tune)**的性能,而参数量仅为全参数微调的0.01%-1%;
\3. MultiNLI任务:LoRA的性能明显超过全参数微调(全参数微调准确率约0.9,LoRA更高),是所有方法中性能最优的,而且参数量依然保持最低水平。
结论:LoRA在不同类型的NLP任务上,都能保持稳定且优异的性能,泛化能力强,可靠性高,无需担心“参数量少导致性能差”的问题。
数据2:不同模型上的性能&参数量对比(重点,程序员必看)
实验覆盖4种主流大模型:RoBERTa-base、RoBERTa-large、DeBERTa-xxL、GPT3,对比LoRA与全参数微调(FT)、其他PEFT方法的参数量和性能,核心数据如下(图表辅助理解):
核心数据拆解(重点标注参数量差距和性能对比,小白也能直观感受):
\1. RoBERTa-base(基础版模型,小白入门首选)
- 全参数微调(FT):需训练1.25亿参数,平均得分86.4;
- LoRA:仅训练30万参数(是FT的0.24%,相当于1/400),平均得分87.2,性能超过全参数微调。
\2. RoBERTa-large(中大型模型,常用落地模型)
- 全参数微调(FT):需训练3.55亿参数,平均得分88.9;
- LoRA:仅训练80万参数(是FT的0.23%),平均得分89.0,性能略超全参数微调,参数量节省幅度巨大。
\3. DeBERTa-xxL(超大规模模型,复杂任务适用)
- 全参数微调(FT):需训练15亿参数,硬件门槛极高(需多块高端GPU),平均得分91.1;
- LoRA:仅训练470万参数(是FT的0.31%),平均得分91.3,性能超过全参数微调,硬件门槛大幅降低(单块中端GPU即可完成)。
\4. GPT3(超大模型,工业级落地)
- 全参数微调(FT):需训练1752.55亿参数,硬件成本极高,几乎无法实现;
- LoRA:仅需训练470万或3770万参数,参数量远低于其他PEFT方法(BitFit、Prefix、Adapter),实现“用最少的参数,达到最优的性能”。
补充实验(3个核心任务,落地参考)
针对3个程序员常用的落地任务,补充LoRA与全参数微调的性能对比,可直接作为选型参考:
\1. WikiSQL(文本转SQL):全参数微调准确率73.8%,LoRA(37.7M参数)准确率74.0%(最优),LoRA(4.7M参数)准确率73.4%(接近全量微调);
\2. MNLI-matched(自然语言推理):全参数微调准确率89.5%,LoRA(4.7M、37.7M参数)准确率均超过91.6%,大幅领先;
\3. SAMSum(对话摘要):全参数微调得分52.0/28.0/44.5,LoRA(4.7M参数)得分53.8/29.8/45.9,所有指标均超越全量微调,且参数量极少。
关键提示:LoRA的参数量并非越大越好,比如SAMSum任务中,LoRA(37.7M参数)的性能反而没有4.7M参数的好,这印证了“低秩假设”——过小的秩可能欠拟合,过大的秩会冗余、过拟合,选择合适的秩(r)是关键。
五、LoRA实操配置指南(小白入门,程序员落地,直接套用)
这一部分是重点,小白可了解核心配置逻辑,程序员可直接套用配置思路,结合实验数据,给出最优配置方案,避免踩坑。核心配置分为两步:选择权重和低秩匹配、根据测试集性能调整配置。
1. 第一步:根据任务准确率,选择权重和低秩匹配
核心是确定两个关键配置:一是对模型的哪些权重矩阵应用LoRA,二是设置合适的秩(r),参考下图的实验数据(可直接套用):
(1)选择目标权重矩阵(Weight Type)
目标:选择Transformer模型中,对任务影响最大的权重矩阵,优先微调效果好、参数量省的矩阵,核心结论(小白记结论,程序员记细节):
- 关键矩阵:Transformer的Attention层中,有4个核心权重矩阵——W_q(Query矩阵)、W_k(Key矩阵)、W_v(Value矩阵)、W_o(输出投影矩阵);
- 效果排序:微调W_v和W_o矩阵,效果通常优于微调W_q和W_k矩阵;
- 最优配置(通用):对所有4个矩阵(W_q、W_k、W_v、W_o)都应用LoRA,并设置较小的秩(r=4、8、16),这是最稳妥、最高效的选择,适配绝大多数任务;
- 资源紧张配置:若GPU资源有限,可仅对W_v和W_o应用LoRA,同时将秩设置为16左右,平衡性能和资源消耗。
(2)选择秩(r)的大小(核心超参数)
结合实验数据,秩(r)的选择有明确规律,小白和程序员直接记以下3点,避免踩坑:
\1. 秩的“甜蜜点”:大多数任务中,秩(r)的最优值在4或8左右,这个范围内,性能最优,参数量最少;
\2. 秩无需过大:当r超过16后,性能提升非常有限,甚至会下降(比如r=64时,容易过拟合,泛化能力变差),同时参数量增加,违背LoRA的核心优势;
\3. 任务适配调整:简单任务(如短文本分类),r=4即可;复杂任务(如文本转SQL、长文本摘要),可尝试r=8、16,无需超过32。
2. 第二步:根据测试集性能,调整低秩配置
很多小白和程序员会陷入一个误区:只看验证损失(val_loss),认为损失越低,性能越好。但实际情况是,对于文本生成类任务,验证损失与最终生成质量不一定正相关,需要结合测试集的质量评估指标,调整配置。
参考下图的实验数据,拆解指标含义和配置逻辑:
(1)核心指标解读(小白懂含义,程序员懂用法)
先明确两个核心指标类型,避免混淆:
① 验证损失(val_loss):训练过程中的核心监控指标,衡量模型预测结果与真实结果的“差异程度”,值越低,说明模型训练越充分,预测错误越少,但不直接等于生成质量越好;
② 质量评估指标(测试集):模型训练完成后,评估最终生成质量的指标,与人类判断的相关性更高,是调整配置的核心依据,重点关注5个指标:
- BLEU:衡量生成文本的准确性和流畅度,值越高越好(0-100),重点关注n-gram的匹配度;
- NIST:BLEU的改良版,给信息量更大的n-gram更高权重,值越高越好,与人类判断相关性更强;
- METEOR:关注语义相似性,支持同义词、词干匹配,值越高越好(0-1),比BLEU更贴合实际生成质量;
- ROUGE-L:衡量生成文本的连贯性和关键信息覆盖度,值越高越好(0-1),适合摘要类任务;
- CIDEr:关注任务相关关键词的覆盖度,值越高越好,适合专业领域任务(如文本转SQL、技术文档生成)。
(2)配置调整逻辑(直接套用)
结合上图实验数据,得出一个关键结论:验证损失最低的配置,不一定是生成质量最优的配置,具体调整逻辑如下:
\1. 观察验证损失(val_loss):图中r=16时,val_loss降至最低(1.16)并保持稳定,说明r≥16时,模型训练已充分,预测错误不再减少;
\2. 观察质量评估指标:BLEU、NIST、METEOR、CIDEr等指标,在r=4时达到峰值,r=8、16时指标略有下降——这说明,对于该任务,r=4是最优配置,虽然val_loss不是最低,但生成质量最好;
\3. 模型适配差异:不同模型的最优秩不同,比如GPT-3的最优秩的r=1即可,而RoBERTa、DeBERTa的最优秩多为4、8,需要根据具体模型和任务,通过实验确定,不能直接照搬其他模型的配置。
实操配置总结(小白&程序员必记)
\1. 通用配置(优先套用):对W_q、W_k、W_v、W_o四个矩阵应用LoRA,秩r=8,若性能不达标,再调整为r=16;
\2. 资源紧张配置:仅对W_v、W_o矩阵应用LoRA,秩r=16,平衡性能和资源;
\3. 调整步骤:先固定r=8,训练后查看测试集的质量指标(重点看BLEU、METEOR),若指标偏低,尝试r=16;若指标波动大,尝试r=4,避免r超过32;
\4. 避坑提示:不要盲目增大秩(r),过大的r会增加参数量、导致过拟合,反而降低模型泛化能力;不要只看val_loss,文本生成类任务,务必以测试集的质量指标为准。
六、总结(收藏备用,快速回顾核心)
LoRA作为最主流的大模型高效微调方法,核心优势是“参数量少、推理高效、性能优异”,无需高性能硬件,小白可快速入门,程序员可高效落地。本文从基础概念、原理拆解、优势对比、实验验证到实操配置,层层递进讲透LoRA,重点总结3个核心点,方便快速回顾:
\1. 核心逻辑:冻结原始模型权重,通过低秩分解(A、B矩阵)模拟权重更新,仅训练0.01%-1%的参数,实现媲美全参数微调的效果;
\2. 关键优势:对比Adapter、Soft Prompts,LoRA推理更快、不占用输入空间、灵活性更强,适配更多任务;
\3. 实操关键:最优配置为“四矩阵+r=8”,资源紧张可“两矩阵+r=16”,秩无需过大,以测试集质量指标为准。
小白可收藏本文,从基础概念逐步入门,慢慢理解低秩和LoRA的逻辑;程序员可直接套用实操配置,结合实验数据,快速落地LoRA微调项目,节省硬件资源和开发时间。后续若有具体模型(如Llama、ChatGLM)的LoRA微调代码需求,可留言交流。
如何学习大模型 AI ?
由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。
但是具体到个人,只能说是:
“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。
这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。
我在一线科技企业深耕十二载,见证过太多因技术卡位而跃迁的案例。那些率先拥抱 AI 的同事,早已在效率与薪资上形成代际优势,我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在大模型的学习中的很多困惑。我们整理出这套AI 大模型突围资料包:
- ✅ 从零到一的 AI 学习路径图
- ✅ 大模型调优实战手册(附医疗/金融等大厂真实案例)
- ✅ 百度/阿里专家闭门录播课
- ✅ 大模型当下最新行业报告
- ✅ 真实大厂面试真题
- ✅ 2026 最新岗位需求图谱
所有资料 ⚡️ ,朋友们如果有需要《AI大模型入门+进阶学习资源包》,下方扫码获取~
① 全套AI大模型应用开发视频教程
(包含提示工程、RAG、LangChain、Agent、模型微调与部署、DeepSeek等技术点)
② 大模型系统化学习路线
作为学习AI大模型技术的新手,方向至关重要。 正确的学习路线可以为你节省时间,少走弯路;方向不对,努力白费。这里我给大家准备了一份最科学最系统的学习成长路线图和学习规划,带你从零基础入门到精通!
③ 大模型学习书籍&文档
学习AI大模型离不开书籍文档,我精选了一系列大模型技术的书籍和学习文档(电子版),它们由领域内的顶尖专家撰写,内容全面、深入、详尽,为你学习大模型提供坚实的理论基础。
④ AI大模型最新行业报告
2025最新行业报告,针对不同行业的现状、趋势、问题、机会等进行系统地调研和评估,以了解哪些行业更适合引入大模型的技术和应用,以及在哪些方面可以发挥大模型的优势。
⑤ 大模型项目实战&配套源码
学以致用,在项目实战中检验和巩固你所学到的知识,同时为你找工作就业和职业发展打下坚实的基础。
⑥ 大模型大厂面试真题
面试不仅是技术的较量,更需要充分的准备。在你已经掌握了大模型技术之后,就需要开始准备面试,我精心整理了一份大模型面试题库,涵盖当前面试中可能遇到的各种技术问题,让你在面试中游刃有余。
以上资料如何领取?
为什么大家都在学大模型?
最近科技巨头英特尔宣布裁员2万人,传统岗位不断缩减,但AI相关技术岗疯狂扩招,有3-5年经验,大厂薪资就能给到50K*20薪!
不出1年,“有AI项目经验”将成为投递简历的门槛。
风口之下,与其像“温水煮青蛙”一样坐等被行业淘汰,不如先人一步,掌握AI大模型原理+应用技术+项目实操经验,“顺风”翻盘!
这些资料真的有用吗?
这份资料由我和鲁为民博士(北京清华大学学士和美国加州理工学院博士)共同整理,现任上海殷泊信息科技CEO,其创立的MoPaaS云平台获Forrester全球’强劲表现者’认证,服务航天科工、国家电网等1000+企业,以第一作者在IEEE Transactions发表论文50+篇,获NASA JPL火星探测系统强化学习专利等35项中美专利。本套AI大模型课程由清华大学-加州理工双料博士、吴文俊人工智能奖得主鲁为民教授领衔研发。
资料内容涵盖了从入门到进阶的各类视频教程和实战项目,无论你是小白还是有些技术基础的技术人员,这份资料都绝对能帮助你提升薪资待遇,转行大模型岗位。