news 2026/2/27 1:40:09

【深度收藏】大模型Agent开发全攻略:LangGraph与Google ADK框架详解与代码实践

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
【深度收藏】大模型Agent开发全攻略:LangGraph与Google ADK框架详解与代码实践

本文系统介绍AI Agent开发知识,涵盖Agent基本概念、LangGraph与Google ADK两大框架的核心特性与应用场景,以及通过多智能体系统解决复杂任务的方法。文章提供完整代码示例,帮助开发者从零构建智能体系统,理解分布式协作机制,适用于大模型应用开发入门与进阶学习。

介绍

今天来介绍下AI Agent相关的知识,本篇文章主要分为三个部分:

  1. AI Agent
  2. Agent Framework(LangGraph & Google ADK)
  3. Multi-Agent System

1、 Agent

1.1 什么是Agent?

AI Agent(人工智能体)是一种具备自主思考、规划和行动能力的智能系统,它主要包括三个部分:

  • LLM大模型
  • Tools工具
  • Prompt提示词

以下所有代码使用LangGraph作为示例:

from langgraph.prebuiltimport create_react_agent def get_weather(city: str)-> str: """Get weather for a given city.""" return f"It's always sunny in {city}!" agent =create_react_agent( model="anthropic:claude-3-7-sonnet-latest", tools=[get_weather], prompt="You are a helpful assistant" ) # Run the agent agent.invoke( {"messages":[{"role":"user","content":"what is the weather in sf"}]} )

我们定义了get_weather方法作为tool, 使用claudeLLM大模型,"You are a helpful assistant"为提示词,就构成了一个最简单的Agent

2、 Agent Framework

我们来介绍一下LLM Agent的两个框架:

  • LangGraph
  • Google ADK(Agent Development Kit)
2.1 LangGraph

概述
LangGraph 是由 LangChain 团队开发的有状态多智能体工作流框架,专为构建复杂、动态的 AI 应用设计。其灵感来源于 Pregel 和 Apache Beam,支持循环流程和细粒度控制,适用于需要长期记忆和人工干预的场景。

核心特性

  • 循环与分支

    :突破传统 DAG 限制,支持循环逻辑(如多轮对话)。

  • 持久化状态

    :自动保存执行状态,支持中断恢复和“人在环”操作。

  • 多智能体协作

    :可构建分层代理系统(如代码生成与测试代理协作)。

  • 与 LangChain 集成

    :兼容 LangChain 生态,但可独立使用。

应用场景

  • 客户服务

    :自动化聊天机器人,处理多轮对话。

  • 数据分析

    :代理协作执行数据检索、清洗与分析。

  • 软件开发

    :如 Uber 用其生成单元测试代码。

代码示例

from langgraph.graph import StateGraph # 定义状态图并添加节点 graph = StateGraph(State) graph.add_node("model", llm_model) graph.add_edge("tools","model")# 工具调用后触发模型 app = graph.compile()# 编译为可执行工作流
2.2 Google ADK (Agent Development Kit)

概述
Google ADK 是模块化多智能体开发框架,开源且支持 Gemini 等模型,强调灵活部署与多代理协作,适用于企业级自动化任务。

核心特性

  • 模块化架构

    :像“乐高积木”组合代理(如销售、运营代理)。

  • 多模型支持

    :兼容 Gemini、GPT 等,动态选择最优模型。

  • 自动任务委派

    :代理根据能力自动转移任务(如旅行规划中航班/酒店代理协作)。

  • Google Cloud 集成

    :支持 Vertex AI 部署,提供企业级扩展性。

应用场景

  • 企业服务

    :Google 自用的客户服务自动化系统(Agentspace)。

  • 实时交互

    :多模态代理处理音频/视频任务。

  • 复杂流程

    :如动态路由任务至专业化子代理。

代码示例

from google.adk.agents import Agent # 创建基于 Gemini 的代理 root_agent = Agent( model="gemini-2.0-flash-exp", tools=[google_search], description="Web search assistant" )

对比与选型建议

维度LangGraphGoogle ADK
核心优势状态管理、循环控制模块化、多模型与云集成
适用场景需长期记忆的复杂流程(如客服、开发)企业级多代理协作(如实时服务)
学习曲线较高(需理解状态图)中等(模块化设计降低复杂度)
生态依赖LangChain 生态Google Cloud 与 Gemini 生态

3、Multi-Agent System

Multi-Agent系统的出现是为了解决单个智能体在复杂任务中的局限性,通过分布式协作实现更高效率、更强鲁棒性和更灵活的适应性。(鲁棒性(Robustness),又称健壮性或稳健性,是指系统在面临内部参数变化、外部干扰或异常输入时,仍能维持核心功能稳定运行的能力。)

我们的系统是非常复杂的,如果单个Agent专注于多个专业,定义了很多的tools,那Agent的效果会非常差。所以我们需要把任务分级、分解成多个Agent,负责不同的任务,共同组成多智能体系统。

多智能体架构:

旅行多Agent示例:

from langchain_openai importChatOpenAI from langgraph.prebuiltimportcreate_react_agent from langgraph_supervisor import create_supervisor def book_hotel(hotel_name: str): """Book a hotel""" return f"Successfully booked a stay at {hotel_name}." def book_flight(from_airport: str,to_airport: str): """Book a flight""" return f"Successfully booked a flight from {from_airport} to {to_airport}." flight_assistant =create_react_agent( model="openai:gpt-4o", tools=[book_flight], prompt="You are a flight booking assistant", name="flight_assistant" ) hotel_assistant =create_react_agent( model="openai:gpt-4o", tools=[book_hotel], prompt="You are a hotel booking assistant", name="hotel_assistant" ) supervisor =create_supervisor( agents=[flight_assistant, hotel_assistant], model=ChatOpenAI(model="gpt-4o"), prompt=( "You manage a hotel booking assistant and a" "flight booking assistant. Assign work to them." ) ).compile()

我们定义了两个子 Agent:

  • flight_assistant
    航班助手使用book_flight工具预定航班
  • hotel_assistant
    酒店助手使用book_hotel工具预定酒店

又定义了一个 Supervisor agent ,来管理flight_assistanthotel_assistant两个子Agent工作。

工作流程:

当我们输入"book a flight from BOS to JFK and a stay at McKittrick Hotel"。 首先会到达supervisorAgent:

  1. supervisor agent

    首先将任务分发给flight_assistant agent预定航班。

  2. flight_assistant

    会调用book_flight工具预定航班,完成预定后返回supervisor agent

  3. supervisor agent

    在将任务分发给hotel_assistant agent预定酒店。

  4. hotel_assistant agent

    调用book_hotel工具预定酒店,完成预定后返回supervisor agent.

  5. supervisor agent

    进行总结,将航班和酒店预定成功信息返回给用户。

GitHub

完整代码已上传Github:

  • https://github.com/Liu-Shihao/ai-agent-demo/tree/main/src/multi_agent_travel_hotel
  • https://github.com/Liu-Shihao/ai-agent-demo/tree/main/src/sql_agent
  • https://github.com/Liu-Shihao/ai-agent-demo/tree/main/src/rag_agent

小白/程序员如何系统学习大模型LLM?

作为在一线互联网企业深耕十余年的技术老兵,我经常收到小白和程序员朋友的提问:“零基础怎么入门大模型?”“自学没有方向怎么办?”“实战项目怎么找?”等问题。难以高效入门。

这里为了帮助大家少走弯路,我整理了一套全网最全最细的大模型零基础教程。涵盖入门思维导图、经典书籍手册、实战视频教程、项目源码等核心内容。免费分享给需要的朋友!

👇👇扫码免费领取全部内容👇👇

1、我们为什么要学大模型?

很多开发者会问:大模型值得花时间学吗?答案是肯定的——学大模型不是跟风追热点,而是抓住数字经济时代的核心机遇,其背后是明确的行业需求和实打实的个人优势:

第一,行业刚需驱动,并非突发热潮。大模型是AI规模化落地的核心引擎,互联网产品迭代、传统行业转型、新兴领域创新均离不开它,掌握大模型就是拿到高需求赛道入场券。

第二,人才缺口巨大,职业机会稀缺。2023年我国大模型人才缺口超百万,2025年预计达400万,具备相关能力的开发者岗位多、薪资高,是职场核心竞争力。

第三,技术赋能增效,提升个人价值。大模型可大幅提升开发效率,还能拓展职业边界,让开发者从“写代码”升级为“AI解决方案设计者”,对接更高价值业务。

对于开发者而言,现在入门大模型,不仅能搭上行业发展的快车,还能为自己的职业发展增添核心竞争力——无论是互联网大厂的AI相关岗位,还是传统行业的AI转型需求,都在争抢具备大模型技术能力的人才。

人工智能大潮已来,不加入就可能被淘汰。如果你是技术人,尤其是互联网从业者,现在就开始学习AI大模型技术,真的是给你的人生一个重要建议!

2、大模型入门到实战全套学习大礼包分享

最后再跟大家说几句:只要你是真心想系统学习AI大模型技术,这份我耗时许久精心整理的学习资料,愿意无偿分享给每一位志同道合的朋友。

在当前这个人工智能高速发展的时代,AI大模型正在深刻改变各行各业。我国对高水平AI人才的需求也日益增长,真正懂技术、能落地的人才依旧紧缺。我也希望通过这份资料,能够帮助更多有志于AI领域的朋友入门并深入学习。

部分资料展示

2.1、 AI大模型学习路线图,厘清要学哪些

对于刚接触AI大模型的小白来说,最头疼的问题莫过于“不知道从哪学起”,没有清晰的方向很容易陷入“东学一点、西补一块”的低效困境,甚至中途放弃。

为了解决这个痛点,我把完整的学习路径拆解成了L1到L4四个循序渐进的阶段,从最基础的入门认知,到核心理论夯实,再到实战项目演练,最后到进阶优化与落地,每一步都明确了学习目标、核心知识点和配套实操任务,带你一步步从“零基础”成长为“能落地”的大模型学习者。后续还会陆续拆解每个阶段的具体学习内容,大家可以先收藏起来,跟着路线逐步推进。

L1级别:大模型核心原理与Prompt

L1阶段:将全面介绍大语言模型的基本概念、发展历程、核心原理及行业应用。从A11.0到A12.0的变迁,深入解析大模型与通用人工智能的关系。同时,详解OpenAl模型、国产大模型等,并探讨大模型的未来趋势与挑战。此外,还涵盖Pvthon基础、提示工程等内容。
目标与收益:掌握大语言模型的核心知识,了解行业应用与趋势;熟练Python编程,提升提示工程技能,为AI应用开发打下坚实基础。

L2级别:RAG应用开发工程

L2阶段:将深入讲解AI大模型RAG应用开发工程,涵盖Naive RAGPipeline构建、AdvancedRAG前治技术解读、商业化分析与优化方案,以及项目评估与热门项目精讲。通过实战项目,提升RAG应用开发能力。

目标与收益:掌握RAG应用开发全流程,理解前沿技术,提升商业化分析与优化能力,通过实战项目加深理解与应用。

L3级别:Agent应用架构进阶实践

L3阶段:将 深入探索大模型Agent技术的进阶实践,从Langchain框架的核心组件到Agents的关键技术分析,再到funcation calling与Agent认知框架的深入探讨。同时,通过多个实战项目,如企业知识库、命理Agent机器人、多智能体协同代码生成应用等,以及可视化开发框架与IDE的介绍,全面展示大模型Agent技术的应用与构建。

目标与收益:掌握大模型Agent技术的核心原理与实践应用,能够独立完成Agent系统的设计与开发,提升多智能体协同与复杂任务处理的能力,为AI产品的创新与优化提供有力支持。

L4级别:模型微调与私有化大模型

L4级别:将聚焦大模型微调技术与私有化部署,涵盖开源模型评估、微调方法、PEFT主流技术、LORA及其扩展、模型量化技术、大模型应用引警以及多模态模型。通过chatGlM与Lama3的实战案例,深化理论与实践结合。

目标与收益:掌握大模型微调与私有化部署技能,提升模型优化与部署能力,为大模型项目落地打下坚实基础。

2.2、 全套AI大模型应用开发视频教程

从入门到进阶这里都有,跟着老师学习事半功倍。

2.3、 大模型学习书籍&文档

收录《从零做大模型》《动手做AI Agent》等经典著作,搭配阿里云、腾讯云官方技术白皮书,帮你夯实理论基础。

2.4、AI大模型最新行业报告

2025最新行业报告,针对不同行业的现状、趋势、问题、机会等进行系统地调研和评估,以了解哪些行业更适合引入大模型的技术和应用,以及在哪些方面可以发挥大模型的优势。

2.5、大模型大厂面试真题

整理了百度、阿里、字节等企业近三年的AI大模型岗位面试题,涵盖基础理论、技术实操、项目经验等维度,每道题都配有详细解析和答题思路,帮你针对性提升面试竞争力。

【大厂 AI 岗位面经分享(107 道)】

【AI 大模型面试真题(102 道)】

【LLMs 面试真题(97 道)】

2.6、大模型项目实战&配套源码

学以致用,在项目实战中检验和巩固你所学到的知识,同时为你找工作就业和职业发展打下坚实的基础。

适用人群

四阶段学习规划(共90天,可落地执行)
第一阶段(10天):初阶应用

该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。

  • 大模型 AI 能干什么?
  • 大模型是怎样获得「智能」的?
  • 用好 AI 的核心心法
  • 大模型应用业务架构
  • 大模型应用技术架构
  • 代码示例:向 GPT-3.5 灌入新知识
  • 提示工程的意义和核心思想
  • Prompt 典型构成
  • 指令调优方法论
  • 思维链和思维树
  • Prompt 攻击和防范
第二阶段(30天):高阶应用

该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。

  • 为什么要做 RAG
  • 搭建一个简单的 ChatPDF
  • 检索的基础概念
  • 什么是向量表示(Embeddings)
  • 向量数据库与向量检索
  • 基于向量检索的 RAG
  • 搭建 RAG 系统的扩展知识
  • 混合检索与 RAG-Fusion 简介
  • 向量模型本地部署
第三阶段(30天):模型训练

恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。

到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?

  • 为什么要做 RAG
  • 什么是模型
  • 什么是模型训练
  • 求解器 & 损失函数简介
  • 小实验2:手写一个简单的神经网络并训练它
  • 什么是训练/预训练/微调/轻量化微调
  • Transformer结构简介
  • 轻量化微调
  • 实验数据集的构建
第四阶段(20天):商业闭环

对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。

  • 硬件选型

  • 带你了解全球大模型

  • 使用国产大模型服务

  • 搭建 OpenAI 代理

  • 热身:基于阿里云 PAI 部署 Stable Diffusion

  • 在本地计算机运行大模型

  • 大模型的私有化部署

  • 基于 vLLM 部署大模型

  • 案例:如何优雅地在阿里云私有部署开源大模型

  • 部署一套开源 LLM 项目

  • 内容安全

  • 互联网信息服务算法备案

  • 👇👇扫码免费领取全部内容👇👇

3、这些资料真的有用吗?

这份资料由我和鲁为民博士(北京清华大学学士和美国加州理工学院博士)共同整理,现任上海殷泊信息科技CEO,其创立的MoPaaS云平台获Forrester全球’强劲表现者’认证,服务航天科工、国家电网等1000+企业,以第一作者在IEEE Transactions发表论文50+篇,获NASA JPL火星探测系统强化学习专利等35项中美专利。本套AI大模型课程由清华大学-加州理工双料博士、吴文俊人工智能奖得主鲁为民教授领衔研发。

资料内容涵盖了从入门到进阶的各类视频教程和实战项目,无论你是小白还是有些技术基础的技术人员,这份资料都绝对能帮助你提升薪资待遇,转行大模型岗位。

这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/2/19 16:52:00

【挑选合适的开源前端项目是商城系统开发的重要一步】

挑选合适的开源前端项目是商城系统开发的重要一步。下面我为你梳理了主流的技术方案和具体的开源项目,并提供选型建议,希望能帮你快速定位适合的方案。 🛠️ 主流技术栈与框架 当前商城前端开发主要围绕以下两种跨端框架展开,它们…

作者头像 李华
网站建设 2026/2/25 22:33:09

中屹指纹浏览器底层技术解析:内核级Hook改造与多维度特征校验实现

2026 年主流平台的风控体系已完成从表层参数检测到底层逻辑校验的技术升级,传统依靠 JS 注入实现指纹篡改的方案,因存在调用栈异常、渲染逻辑矛盾、参数关联性缺失等问题,被风控系统识别的概率大幅提升。中屹指纹浏览器基于 Chromium 125 内核…

作者头像 李华
网站建设 2026/2/24 12:04:32

大模型本地部署:Windows PC上从零开始部署ChatGML-6B-int4量化模型

ChatGLM-6B是清华大学知识工程和数据挖掘小组(Knowledge Engineering Group (KEG) & Data Mining at Tsinghua University)发布的一个开源的对话机器人。6B表示这是ChatGLM模型的60亿参数的小规模版本,约60亿参数。 ChatGML-6B-int4量化…

作者头像 李华
网站建设 2026/2/21 18:34:15

资深AI技术专家20年总结,零AI基础掌握大模型、扩散模型、多模态模型

今天给大家系统地介绍了一本AIGC的各方面内容的书—《AIGC原理与实践:零基础学大语言模型、扩散模型和多模态模型》,这本书从基础知识到应用实践,从基本原理到案例分析,力求通过简洁明了的语言、清晰生动的例子,引导读…

作者头像 李华
网站建设 2026/2/19 6:26:29

Nginx:如何安装Nginx详细教程(总结一)

一、Nginx简介 1. 什么是Nginx Nginx是一款高性能的http 服务器/反向代理服务器及电子邮件(IMAP/POP3)代理服务器。由俄罗斯的程序设计师Igor Sysoev所开发,官方测试nginx能够支支撑5万并发链接,并且cpu、内存等资源消耗却非常低&…

作者头像 李华