news 2026/4/15 14:51:57

Meta公布“超级智能”新进展:无需人类,软件Agent即可自我训练!

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
Meta公布“超级智能”新进展:无需人类,软件Agent即可自我训练!

近年来,基于大语言模型(LLMs)的软件工程智能体发展迅速,但其训练数据和训练环境仍高度依赖人类知识和人工策划,本质上是在复现人类开发轨迹,难以自主发现新的问题结构与解决策略,这从根本上制约了智能体迈向超级智能的能力。

基于此,来自Meta、伊利诺伊大学厄巴纳-香槟分校的研究团队提出 Self-play SWE-RL(SSR),作为软件工程智能体训练范式的第一步。该方法对数据假设的要求极低,仅需访问包含源代码和已安装依赖项的沙盒化代码仓库,无需任何人工标注的问题或测试用例。

研究表明,智能体可以从真实世界的软件仓库中自主获取学习经验,有望催生在系统理解、解决全新问题以及从零开始自主创建软件等方面超越人类能力的超级智能系统。

一、Self-play SWE-RL 框架

SSR 的设计原则是减少对代码库先验知识的依赖,以提升方法的通用性与可扩展性。它不依赖于特定环境的预配置,智能体要通过与环境的交互,自主探索测试的运行方式并理解其结构。该极简输入设定使 SSR 几乎无需额外配置即可应用于不同代码库,显著降低了使用与迁移成本。

SSR 的核心是通过自博弈式的迭代循环,使智能体在不断生成与解决 Bug 的过程中实现自我提升。在 SSR 中,同一 LLM 策略被划分为两个协同演化的角色,分别是智能体 Bug 注入与智能体 Bug 求解,二者共享参数但承担不同任务。

图| SSR 的总体框架

1.智能体 Bug 注入

智能体 Bug 注入通过让模型扮演“破坏者”构建起自驱动的进化闭环。

在这一过程中,首先生成包含 Bug 补丁和弱化测试的 Bug 构件,将抽象错误转化为标准化的练习题;随后,运用“删除关键代码”或“回滚历史修复”等复杂生成策略,从真实工程逻辑中制造出极具挑战的高质量难题;为了确保逻辑严密,系统利用“逆向变异测试”进行严格的一致性验证,剔除无关干扰并确保错误可复现;最后,通过动态奖励机制将任务难度维持在“跳一跳才够得着”的区间,并将修复失败的尝试转化为高阶缺陷循环利用,从而在无需人类标注的情况下,驱动智能体在博弈中不断实现自我超越。

图| 智能体 Bug 注入中“删除关键代码”和“回滚历史修复”的策略

2.智能体 Bug 修复

智能体 Bug 修复通过在沙盒中应用缺陷补丁并重置 Git 历史来构建防作弊的代码现场,确保模型无法走捷径。随后,以弱化测试的逆向补丁作为任务提示,取代人类的文字描述,迫使代理纯粹基于代码逻辑定位问题。在修复过程中,智能体通过“推理与工具调用”的交互循环,在模拟环境中自主进行补丁尝试与验证。最终,系统通过回滚原始测试文件的评估机制进行严苛复核,确保生成的 Bug 在真实测试下依然有效,从而完成从理解考题到提交正确答案的闭环。

图| 智能体 Bug 修复的流程

二、实验结果

研究人员在 SWE-bench Verified 与 SWE-bench Pro 上,对基础模型、基线强化学习方法以及 SSR 进行了系统比较。

实验结果表明,即使在完全不接触任务描述和测试数据的情况下,SSR 仍能在训练过程中持续实现性能提升,验证了 LLM 仅通过与真实代码库交互即可增强其软件工程能力。更重要的是,SSR 在整个训练轨迹上始终优于基线 RL,说明由模型自主生成的任务相比人工构造的数据,能够提供更具信息量和有效性的学习信号。

图| 训练过程中的基线比较

研究人员比较了完整的 SSR 与仅进行 Bug 注入或仅进行 Bug 修复的两种变体。

实验结果表明,完整的自博弈框架性能最优,而单一注入或修复训练均表现不足,前者缺乏从修复过程中的学习,后者受限于静态任务分布。相比之下,自博弈通过同时生成与修复 Bug,使任务分布随训练动态演化,持续提供更丰富的学习信号,从而实现稳定的性能提升。

图| Self-play Swe-RL的消融研究

三、不足与未来展望

尽管 SSR 在减少人工依赖、实现自我提升方面展现出潜力,但仍处于早期阶段。当前方法依赖显式测试作为判定器,存在奖励投机的潜在风险。同时,验证机制主要基于单元测试,难以覆盖真实软件工程中的高层目标与复杂语义。此外,Bug 注入与修复角色共享同一模型配置,尚未系统探索模型规模、结构差异及角色分离对自博弈学习的影响。

此外,研究人员还探索了若干未取得理想效果的方向,例如,自然语言 issue 生成受限于模型能力与奖励设计,难以保证质量与多样性;仓库专用训练因数据多样性不足未能带来收益;而训练不稳定性则成为限制 SSR 进一步扩展的重要瓶颈。

展望未来,SSR 为自博弈驱动的软件工程智能体打开了多个研究方向,包括通过种子机制控制错误分布、合成更复杂的多步软件任务,以及设计适用于长周期软件开发的高效训练范式。尤其是在奖励稀疏、决策链条极长的真实工程场景中,如何引入更密集、结构化的反馈,将是释放自博弈潜力、迈向更高层次智能的关键。

那么,如何系统的去学习大模型LLM?

作为一名深耕行业的资深大模型算法工程师,我经常会收到一些评论和私信,我是小白,学习大模型该从哪里入手呢?我自学没有方向怎么办?这个地方我不会啊。如果你也有类似的经历,一定要继续看下去!这些问题啊,也不是三言两语啊就能讲明白的。

所以我综合了大模型的所有知识点,给大家带来一套全网最全最细的大模型零基础教程。在做这套教程之前呢,我就曾放空大脑,以一个大模型小白的角度去重新解析它,采用基础知识和实战项目相结合的教学方式,历时3个月,终于完成了这样的课程,让你真正体会到什么是每一秒都在疯狂输出知识点。

由于篇幅有限,⚡️ 朋友们如果有需要全套 《2025全新制作的大模型全套资料》,扫码获取~

👉大模型学习指南+路线汇总👈

我们这套大模型资料呢,会从基础篇、进阶篇和项目实战篇等三大方面来讲解。

👉①.基础篇👈

基础篇里面包括了Python快速入门、AI开发环境搭建及提示词工程,带你学习大模型核心原理、prompt使用技巧、Transformer架构和预训练、SFT、RLHF等一些基础概念,用最易懂的方式带你入门大模型。

👉②.进阶篇👈

接下来是进阶篇,你将掌握RAG、Agent、Langchain、大模型微调和私有化部署,学习如何构建外挂知识库并和自己的企业相结合,学习如何使用langchain框架提高开发效率和代码质量、学习如何选择合适的基座模型并进行数据集的收集预处理以及具体的模型微调等等。

👉③.实战篇👈

实战篇会手把手带着大家练习企业级的落地项目(已脱敏),比如RAG医疗问答系统、Agent智能电商客服系统、数字人项目实战、教育行业智能助教等等,从而帮助大家更好的应对大模型时代的挑战。

👉④.福利篇👈

最后呢,会给大家一个小福利,课程视频中的所有素材,有搭建AI开发环境资料包,还有学习计划表,几十上百G素材、电子书和课件等等,只要你能想到的素材,我这里几乎都有。我已经全部上传到CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】

相信我,这套大模型系统教程将会是全网最齐全 最易懂的小白专用课!!

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/4/15 4:09:54

Open-AutoGLM苹果可以用么,独家揭秘苹果Silicon芯片适配内幕

第一章:Open-AutoGLM苹果可以用么Open-AutoGLM 是一个基于 AutoGLM 架构的开源项目,旨在为开发者提供高效的自然语言处理能力。尽管该项目并非由苹果公司官方推出,但其设计兼容多种硬件平台,包括搭载 Apple Silicon 芯片的 Mac 设…

作者头像 李华
网站建设 2026/4/14 22:45:05

错过OpenAI就错了?不,Open-AutoGLM才是2024年最值得掌握的AI引擎

第一章:错过OpenAI就错了?重新定义2024年AI引擎格局2024年的人工智能竞争已不再局限于单一模型的性能比拼,而是演变为生态、算力与落地场景的全面博弈。尽管OpenAI凭借GPT系列奠定了生成式AI的起点,但全球科技巨头与开源社区的快速…

作者头像 李华
网站建设 2026/4/14 16:19:22

Open-AutoGLM究竟解决了什么难题:基于真实场景的7项技术验证

第一章:Open-AutoGLM的技术到底是啥Open-AutoGLM 是一个开源的自动化通用语言生成模型框架,旨在通过模块化架构实现自然语言理解与生成任务的高效集成。其核心技术融合了预训练语言模型、动态推理引擎与可插拔式工具调用机制,支持开发者灵活构…

作者头像 李华
网站建设 2026/4/15 13:11:27

基于Comsol软件的螺旋光纤模式深度解析与探讨

Comsol螺旋光纤模式分析螺旋光纤作为一种新型的光纤结构,在现代光学和通信领域中吸引了大量研究者的兴趣。与传统的光纤不同,螺旋光纤具有独特的结构和光传输特性,能够支持多种模式,包括螺旋模式。这些模式由于其特殊的相位结构和…

作者头像 李华
网站建设 2026/4/14 1:42:48

如何在TensorFlow镜像中实现CRF层用于序列标注

如何在TensorFlow镜像中实现CRF层用于序列标注 在构建高精度命名实体识别系统时,一个常见的痛点是:即便模型对单个词的标签预测准确率很高,最终输出的实体序列却常常“语法”错误——比如出现孤立的“I-PER”而前面没有“B-PER”,…

作者头像 李华