快速了解部分
基础信息(英文):
1.题目: CLARE: Continual Learning for Vision-Language-Action Models via Autonomous Adapter Routing and Expansion
2.时间: 2026.01
3.机构: Technical University of Munich (TUM), Robotics Institute Germany
4.3个英文关键词: Continual Learning, Vision-Language-Action Models (VLA), Parameter-Efficient Fine-Tuning
1句话通俗总结本文干了什么事情
本文提出了一种名为CLARE的框架,让机器人能在不遗忘旧技能的前提下,通过自主添加微小的新模块来持续学习新任务,且不需要存储旧数据或依赖任务标签。
研究痛点:现有研究不足 / 要解决的具体问题
现有的视觉-语言-动作模型(VLA)在通过微调适应新任务时,容易发生“灾难性遗忘”(即学会新技能就忘了旧技能);现有的持续学习方法通常需要存储大量旧数据(回放)或依赖任务标识符(Oracle),这在真实机器人的长期运行中既不现实也不高效。
核心方法:关键技术、模型或研究设计(简要)
提出CLARE框架,通过在预训练VLA模型的特定层中插入轻量级的“适配器”(Adapters),并利用自动编码器判别器根据特征相似性自主决定何时扩展新模块以及推理时路由激活哪个模块。
深入了解部分
相比前人创新在哪里
- 完全自主:无需任务标识符(Task-ID)即可在推理时自动路由;2.无范例(Exemplar-free):不需要存储旧数据即可避免遗忘;3.动态扩展:仅在特征统计显示任务具有显著新颖性时才扩展参数,参数增长极低(约2%每任务)。
解决方法/算法的通俗解释
想象机器人的大脑是一个预训练好的通用模型。CLARE给这个大脑装上了“可插拔的技能卡”(适配器)。当遇到新任务时,它会先检查现有的“技能卡”是否适用(通过特征相似度判断),如果不适用就插一张新的。在工作时,它会自动扫描环境,找到最匹配的那张“技能卡”来使用,从而既学会了新东西,又没丢掉老本事。
解决方法的具体做法
- 模块化适配器:在Transformer的Feed-Forward层插入轻量级适配器,训练时仅更新适配器参数,冻结主干。
- 自主路由:为每个适配器配对一个自动编码器判别器,推理时激活重构误差最小(即特征最匹配)的适配器。
- 动态扩展策略:计算新任务特征与现有判别器的z-score,若高于阈值则新增适配器-判别器对,否则复用现有适配器。
基于前人的哪些方法
基于Vision-Language-Action (VLA) 模型(如基于Diffusion/Flow Matching的策略)、混合专家系统(Mixture-of-Experts, MoE)的思想、以及参数高效微调技术(如LoRA)。
实验设置、数据、评估方式、结论
- 数据:基于LIBERO benchmark(LIBERO-90预训练,LIBERO-10持续学习测试)。
- 设置:Franka机械臂在厨房环境执行10个连续长视野任务(如开抽屉、放物品等)。
- 评估指标:AUC(总体成功率)、FWT(新任务学习能力)、NBT(遗忘程度,越低越好)。
- 结论:CLARE在AUC和NBT指标上显著优于SeqFFT、SeqLoRA、PackNet、ER和LOTUS等基线方法,实现了高新任务性能且无灾难性遗忘。
提到的同类工作
- LOTUS:基于技能库和回放的方法;
- SDP (Sparse Diffusion Policy):需要任务标识符的手动路由扩散策略;
- EWC/PackNet:基于正则化或剪枝的持续学习方法;
- ER (Experience Replay):基于存储旧数据回放的方法。
和本文相关性最高的3个文献
- LOTUS: Continual imitation learning for robot manipulation through unsupervised skill discovery.
- PackNet: Adding a new chapter to a convolutional neural network for incremental learning.
- LoRA: Low-rank adaptation of large language models.
我的
研究持续学习的工作,在加上新任务训练时,也不让vla遗忘旧任务,而且参数增长量也较小。但是VLA选择的是DiT结构。而且无真机验证。