news 2026/3/21 5:30:04

基于大模型的领域场景开发:从单智能体到多智能体的React框

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
基于大模型的领域场景开发:从单智能体到多智能体的React框

文章介绍了一种基于大模型的React框架实现方案,用于提升研发生产力。团队经历了从提示词工程到RAG再到流程编排的演进,采用elemMcpClient+多平台LLM调用客户端,设计了包含startNode、processNode等五个Node的核心流程,实现单智能体对工具调用的反思规划。文章探讨了多智能体协作的层级指挥模式和自由协作模式,指出上下文管理是未来迭代重点。该方案比传统流程编排更灵活,能自主规划工具调用,摆脱传统prompt工程的参数解析过程。


背景

基于大模型的领域场景开发,说到底无非是借助基座模型对语义的理解推理能力,将通用AI变为专有AI工具的过程。但仅仅只做模型调用,来实现复杂类需求,对生产力的提升并没有太大帮助。因此在围绕提升研发生产力的过程,从大模型问世到现在,卷出了各种大模型工程规范。从最早的提示词工程到RAG,再到流程编排模式,每个阶段无疑都是对研发生产力的不断提升。

当然我们团队也经历了这些阶段,我们最先基于饿了么钉钉文档,开发了一套完备的RAG+角色扮演平台,此后又并行推出了拥有三十多项大模型指令的饿了么一键办事机器人——小e,和集成流程编排到平台能力中,为适配多端透出和支持丰富渲染,开发了问答助手分身及问答卡片搭建功能。感兴趣可以在文章最后介绍中体验。

至此也基本能满足大多数AI需求场景的低代码搭建。但随着多智能体架构对复杂场景的支持越来越灵活,近期我们也在设计架构升级。

参考了一些主流平台中工具与agent间的分发及调用,针对我们平台当前的用户体量及后续支撑的一些场景,分析层级指挥和自由协作两种模式的利弊,选用层级指挥模式作为React框架。初步实现了单智能体对工具调用的反思规划,后边迭代利用此框架再将智能体抽象为工具调用,实现多智能体间的相互协作。

先上结果:

1.对用户提问自主规划,比流程编排模式更加灵活。

2.单智能体更丰富的工具体系,自主选择工具调用,摆脱传统prompt工程参数解析、意图识别等coding或节点配置过程。

ToolCalls+MCP实现React模式

什么是React

对于React,大家都有自己的理解。本文主要介绍我们是如何实现React框架,关于智能体React模式简单仅做个人简单的一些理解。

1.首先LLM需要不断和环境作出反馈和判断,制定下一步的执行策略。这里的环境即工具列表、对话上下文、一些系统变量。

2.上图可以看出,核心还是接收反馈后采用什么方式决策?以及和环境之间通信的上下文如何管理。

因此关于决策方式和上下文管理大家都卷出了各种玩法:

决策方式

1.类manuas方式,使用PlanningAgent:负责规划;Controller Agent负责监督Planning执行情况;StepAgent负责打标。

2.OpenAI提出的显式引导

3.Planning As Tool——将思考规划作为一个单独的工具,告诉大模型有这样一种工具,且入参定义为思考、行动、规划,借助工具入参来引导大模型思考规划。

上下文管理

这个可能又涉及到一些比较复杂的上下文通信和动态压缩等,本文也不做介绍,后续也是我们重点升级的方向,好的上下文通信带来的核心收益有两方面:

  1. 每个agent拥有更丰富的背景内容,产出质量更高 ;

  2. 极大节省token,用tooCalls的方式很烧token;

Planning As Tool 方案推演

1.调用大模型时注入系统提示词+用户提问+工具列表(包含思考规划工具)。

2.得到大模型回答出,需要的工具是什么,以及入参是什么?

3.第一步回答出需要调用的工具是思考工具,借助思考工具定义的入参,让大模型给到思考内容、规划内容,实际该方法只是一个空壳,然后拼接大模型的回答和工具调用的结果,思考规划工具的调用结果手动mock为success。

4.得到回答,需要调用天气查询工具,入参也给出来了:

5.重复2-4的过程,直至大模型返回的tool_calls为空,content不为空时结束,最终结果如下:

实现架构

技术选型

技术选型上我最终使用的是elemMcpClient+多平台LLM调用客户端。

那为什么这样选择,不直接使用springAI已经封装好的工具调用,或者使用原生McpSdk,还要自己手撸呢:

1.springAI本身集成了上下文管理、工具调用等能力,理论上直接用来做模型调用是很方便,但是:

a.中间过程交互不够友好,对于个人开发者来说,springAI确实比较方便,绑定一堆工具、配置好模型地址和ak,输入一个提问,直接能返回意图分类后工具的执行结果,但是我们是平台开发者,我们需要将中间过程做封装交互展示。

b.springAI虽然可以设置中断,只返回该调用哪个工具,把工具的执行交给开发者,但这里也有点坑,有些情况不能返回选择了哪个工具,而且,那这样的话,springAi的价值也大打折扣,仅被当成一个LLM调用的客户端…

c.很多国内模型其实springAI的openAiApi支持的不够灵活,可能是我自己原因,没有找到springAi里面qwen3的enableThinking=false在哪配置。

d.springAI集成的原生McpSdk本身也有坑,比如集团内发布的很多TppMcp或者AoneMcp都调不通,原因在下面分析。

2.原生MCPSdk作为工具调用时,不支持后缀带很多参数的MCP服务,如Aone开放平台发布的MCP为了鉴权,带有鉴权参数。

基于上述背景和试错过程,最终选择了ElemeMcpSdk + 包含WhaleSdk在内的主流平台LLM客户端。

系统架构设计

规划类agent调度框架如下图所示:

1.agent分类方面,此前我们已经有了流程编排类型、其他平台api接入类型、RAG+角色扮演类型。此次扩展出一种规划类型agent。

2.在环境方面,我们针对长期记忆和短期记忆分别进行持久化。

a.长期记忆主要指多轮对话,补充一次会话过程中的背景信息;

b.短期记忆是每个智能体或工具给出的回答,用于:1.后续实现单agent间的通信 2. 记录思考次数,以便做异常中断;

c.agent绑定的工具列表持久化,其中有一个作用是,gpt4做toolCalls时,仅支持方面名是英文的方法,因此还要利用这块的存储做中文-英文的缓存;

3.规划过程:

a.领域抽象时,设计了五个Node来完成核心流程;

b.startNode,用于组装系统提示词、RAG检索到的片段、用户提示词、历史对话、用户提问、工具列表;

c.startNode节点中调用LLM,收到反馈;

d.ProcessNode节点负责循环过程的执行,需要获取LLM返回的参数,去拼接LLM的message内容、以及循环中发起对工具列表的调用;

e.ToolManagerNode ,负责接收需要调用的方法名及入参,根据方法名,在cache中查找对应的MCP的sseUrl利用mcp客户端调用工具获取结果,添加到LLM的message中;

f.StepNode,负责对每一步结果进行打标,并存储到短期记忆中;

g.SendNode 负责接收来自processNode的数据,并进行封装,如背景中的各个步骤执行效果,需要用和前端约定好的标签封装过程数据。然后对封装好的数据利用Ssemitter进行发送;

4.LLM客户端封装

a.针对LLM调用,主要是根据不同平台对模型的支持程度,封装了三个LLM-ToolCalls的客户端;

b.whaleSdk、Idealab-http调用、springAI框架调用;

c.根据用户配置的模型id,来适配找出一种客户端做模型调用;

整个实现流程图如下,与上述描述基本一致:

核心代码

这部分主要对实现的相关代码进行介绍。

核心类及属性

流转对象

startNode

发起调用流程

规划运行节点

工具节点:获取工具列表,只在startNode中调用。

工具节点:执行工具

LLM客户端:whale为例

利用工厂模式还扩展了springAI、Idealab类型客户端。

核心类基本如上图所述,还有其他关于前后端约定的展示样式封装的工具类不做展开介绍。

多智能体升级方案

单智能体本身就是为了解决足够复杂的任务,为什么还需要多智能体?

这里给一些个人的看法:

1.烧token,每次中心agent对模型的请求完全是无脑拼接,如果拆分成多智能体,中心agent对模型的发起只用某个agent返回的结果即可。

2.单智能体职责不够清晰,产出的交付物不如 多智能体的“专业的事交给专业的人”

上述方案我们已经实现了单智能体对工具的React框架,但是多智能体的协同还未做升级,参考了一些资料,多智能体框架实现基本分为两类。

一种是类似React的层级调度模式,由中心agent负责调度需要执行的智能体,我们实现也比较简单,只需要在现有实现框架基础上,将agent抽象为工具即可。工具执行时根据工具类型再实现调用方法。

另一种是自由协作模式,针对一个问题,每个agent分别去处理这个问题,然后执行结果发送给下一个agent,继续判断它能否解决这个问题,以及解决了哪些部分,一轮结束后,由中心agent去分发任务开始执行下一轮,这时候每个agent由了上一轮的上下文,产出效果更聚焦于各自职责。直到中心agent判断可以产出时,进行汇总。

两种方案如下图所示:

考虑后续我们承接的业务场景暂时不需要很发散的需求,采用层级指挥模式进行多智能体协作设计。

未来迭代重点

通过手撸React框架,以及对多智能体协作的调研,发现了一些问题,其实本文上述中在每个章节都有提到上下文管理。

如果无脑做ToolCalls调用,带来的问题有:

1.烧token;

2.无关信息可能会导致每个agent调用时产生幻觉;

如果agent获取到的上下文不够或者确实,带来的问题有:

1.产出质量较低,导致指挥者可能发生多次无用的调用指挥;

2.agent并行执行时,agent之间的上下文通信能力不足,类似于神经网络中陷入局部最优解;

因此,在多智能体升级完以后,我们也会考虑设计上下文动态压缩、合理使用文件系统等工作。

查询了一些资料,发现有些资料中的观点与我提到的基本类似,可以参阅:

总结

本文主要对多平台LLM客户端+MCP 实现智能体React框架的方案进行了详细阐述,对核心代码进行了剖析,以及对目前业界多智能体设计方案的进行了调研简单介绍。希望能对相关平台开发者有借鉴意义,对个人开发者其实有更多的方案进行体验,没有必要进行手撸框架。

基于 RAGFlow 构建私有知识问答应用

传统 RAG 应用因文档解析能力不足,导致相关问题的回答失准。RAGFlow 凭借创新的深度文档理解技术,能精准解析各类复杂格式的原始数据,提升回答准确性。本方案介绍如何一键部署 RAGFlow 并构建私有知识问答应用,无需编码,最快 10 分钟、最低 2 元即可实现。

剖析,以及对目前业界多智能体设计方案的进行了调研简单介绍。希望能对相关平台开发者有借鉴意义,对个人开发者其实有更多的方案进行体验,没有必要进行手撸框架。

基于 RAGFlow 构建私有知识问答应用

传统 RAG 应用因文档解析能力不足,导致相关问题的回答失准。RAGFlow 凭借创新的深度文档理解技术,能精准解析各类复杂格式的原始数据,提升回答准确性。本方案介绍如何一键部署 RAGFlow 并构建私有知识问答应用,无需编码,最快 10 分钟、最低 2 元即可实现。

在大模型时代,我们如何有效的去学习大模型?

现如今大模型岗位需求越来越大,但是相关岗位人才难求,薪资持续走高,AI运营薪资平均值约18457元,AI工程师薪资平均值约37336元,大模型算法薪资平均值约39607元。

掌握大模型技术你还能拥有更多可能性

• 成为一名全栈大模型工程师,包括Prompt,LangChain,LoRA等技术开发、运营、产品等方向全栈工程;

• 能够拥有模型二次训练和微调能力,带领大家完成智能对话、文生图等热门应用;

• 薪资上浮10%-20%,覆盖更多高薪岗位,这是一个高需求、高待遇的热门方向和领域;

• 更优质的项目可以为未来创新创业提供基石。

《AI大模型从0到精通全套学习包》

如果你想要提升自己的能力却又没有方向?

想学大模型技术去帮助就业和转行又不知道怎么开始?

那么这一套**《AI大模型零基础入门到实战全套学习大礼包》以及《大模型应用开发视频教程》**一定可以帮助到你!

限免0元!👇👇

1

全套AI大模型应用开发视频教程

(包含深度学习、提示工程、RAG、LangChain、Agent、模型微调与部署、DeepSeek等技术点)

2

大模型入门到实战全套学习大礼包

01

大模型系统化学习路线

作为学习AI大模型技术的新手,方向至关重要。 正确的学习路线可以为你节省时间,少走弯路;方向不对,努力白费。这里我给大家准备了一份最科学最系统的学习成长路线图和学习规划,带你从零基础入门到精通!

02

大模型学习书籍&文档

学习AI大模型离不开书籍文档,我精选了一系列大模型技术的书籍和学习文档(电子版),它们由领域内的顶尖专家撰写,内容全面、深入、详尽,为你学习大模型提供坚实的理论基础。

03

AI大模型最新行业报告

2025最新行业报告,针对不同行业的现状、趋势、问题、机会等进行系统地调研和评估,以了解哪些行业更适合引入大模型的技术和应用,以及在哪些方面可以发挥大模型的优势。

04

大模型项目实战&配套源码

学以致用,在项目实战中检验和巩固你所学到的知识,同时为你找工作就业和职业发展打下坚实的基础。

05

大模型大厂面试真题

面试不仅是技术的较量,更需要充分的准备。在你已经掌握了大模型技术之后,就需要开始准备面试,我精心整理了一份大模型面试题库,涵盖当前面试中可能遇到的各种技术问题,让你在面试中游刃有余。

*这些资料真的有用吗?*

这份资料由我和鲁为民博士(北京清华大学学士和美国加州理工学院博士)共同整理,现任上海殷泊信息科技CEO,其创立的MoPaaS云平台获Forrester全球’强劲表现者’认证,服务航天科工、国家电网等1000+企业,以第一作者在IEEE Transactions发表论文50+篇,获NASA JPL火星探测系统强化学习专利等35项中美专利。本套AI大模型课程由清华大学-加州理工双料博士、吴文俊人工智能奖得主鲁为民教授领衔研发。

资料内容涵盖了从入门到进阶的各类视频教程和实战项目,无论你是小白还是有些技术基础的技术人员,这份资料都绝对能帮助你提升薪资待遇,转行大模型岗位。

06

以上全套大模型资料如何领取?

👆🏻用微信加上就会给你发

无偿分享

遇到扫码问题可以私信或评论区找我

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/3/20 17:56:01

全远程化运维管理的工业智能网关有哪些功能

全远程化运维管理的工业智能网关是工业物联网的核心设备,其功能设计围绕设备远程监控、故障诊断、控制调整及安全防护展开,旨在打破地域限制,提升运维效率并降低企业成本。以下是其核心功能及具体应用场景的详细说明:一、设备连接…

作者头像 李华
网站建设 2026/3/16 2:43:25

Stable Diffusion v2-base 文本到图像生成技术完全指南

Stable Diffusion v2-base 文本到图像生成技术完全指南 【免费下载链接】stable-diffusion-2-base 项目地址: https://ai.gitcode.com/hf_mirrors/ai-gitcode/stable-diffusion-2-base Stable Diffusion v2-base 是一款革命性的文本到图像生成模型,它基于先…

作者头像 李华
网站建设 2026/3/16 0:27:17

OneTrainer零基础入门指南:从新手到模型微调高手的5大实战技巧

OneTrainer零基础入门指南:从新手到模型微调高手的5大实战技巧 【免费下载链接】OneTrainer OneTrainer is a one-stop solution for all your stable diffusion training needs. 项目地址: https://gitcode.com/gh_mirrors/on/OneTrainer 你是否曾经面对复杂…

作者头像 李华
网站建设 2026/3/15 14:10:03

多条件分支如何提升Dify工作流效率?你必须知道的5种模式

第一章:多条件分支在Dify工作流中的核心价值在构建复杂自动化任务时,多条件分支是实现智能决策的核心机制。Dify工作流通过支持灵活的条件判断,使流程能够根据输入数据、用户行为或外部API响应动态选择执行路径,从而提升应用的适应…

作者头像 李华