百度360必应搜狗淘宝本站头条
当前位置:网站首页 > 技术文章 > 正文

硬核,AI Agents全栈技术框架综述与未来

ccwgpt 2025-04-08 12:29 25 浏览 0 评论

LLM Agents正在变得广泛传播,但它们并非轻易就能创造出来,需要许多组件协同工作。以 40+ 张图解,探索 LLM Agents主要组件Multi-Agent框架、以及MCP等全栈技术要点,比如:

  • Agent如何从失败Plan中学习经验?
  • LLM、MCP、Tool交互细节?
  • 几十种Multi-Agent架构,核心组件是?

什么是 LLM Agent?

AI Agent是任何可以通过传感器感知其环境并通过执行器对环境采取行动的东西。

——罗素和诺维格,《人工智能:一种现代方法》(2016 年)

Agents与环境互动,通常包括几个重要组件:

  • o 环境 —— 代理互动的世界
  • o 传感器 —— 用于观察环境
  • o 执行器 —— 用于与环境互动的工具
  • o 效应器 —— 决定如何从观察到行动的“大脑”或规则

这个框架适用于所有与各种环境互动的代理,比如与物理环境互动的机器人或与软件互动的AI Agents。

可以稍微扩展这个框架,使其适用于“增强型 LLM”。

使用“增强型”LLM,Agent可以通过文本输入观察环境,并通过使用工具执行某些行动。

为了选择要采取哪些行动,LLM Agent有一个关键组件:它的计划能力。为此,LLM 需要能够通过链式思考等方法进行“推理”和“思考”。

利用这种推理行为,LLM Agent将计划出要采取的必要行动。

这种计划行为使Agent能够理解情况(LLM)、计划下一步(计划)、采取行动(工具)并跟踪已采取的行动(记忆)。

根据系统,你可以拥有不同程度自主性的 LLM Agents。

一个系统越“agentic”,LLM 就越能决定系统的行动方式。

将通过 LLM Agent的三个主要组件:记忆、工具和计划,来探索各种自主行为的方法。

记忆

LLM 是健忘的系统,或者更准确地说,在与它们互动时,它们根本不进行任何记忆。

例如,当你问 LLM 一个问题,然后又接着问另一个问题时,它不会记得前者。

我们通常将其称为短期记忆,也称为工作记忆,它作为(近乎)即时上下文的缓冲区。这包括 LLM 代理最近采取的行动。

然而,LLM 代理还需要跟踪可能多达数十步的行动,而不仅仅是最近的行动。

这被称为长期记忆,因为 LLM 代理理论上可能需要记住多达数十步甚至数百步。

短期记忆

实现短期记忆最直接的方法是使用模型的上下文窗口,这本质上是 LLM 可以处理的 token 数量。

较大的上下文窗口可以用来跟踪完整的对话历史,作为输入提示的一部分。

对于上下文窗口较小的模型,或者当对话历史较大时,可以改用另一个 LLM 来总结到目前为止发生的对话。

长期记忆

LLM Agents的长期记忆包括需要长期保留的Agents过去的行动空间。

实现长期记忆的一个常见技术是将所有之前的互动、行动和对话存储在一个外部向量数据库中。

在构建数据库之后,可以通过RAG方式检索相关信息。

工具

工具允许给定的 LLM 要么与外部环境(如数据库)互动,要么使用外部应用程序(如运行自定义代码)。

工具通常有两种用例:获取数据以检索最新信息和采取行动,比如安排会议或点餐。

要实际使用一个工具,LLM 必须生成适合给定工具的 API 的文本。我们通常期望的是可以格式化为 JSON 的字符串,以便可以轻松地输入到代码解释器中。

Toolformer

工具使用是一种强大的技术,可以增强 LLM 的能力并弥补它们的不足。因此,关于工具使用和学习的研究在过去几年中迅速增加。

最早实现这一目标的技术之一被称为 Toolformer,这是一个训练用于决定调用哪些 API 以及如何调用的模型。

模型上下文协议(MCP)

工具是具代理性框架的重要组成部分,允许 LLM 与世界互动并扩展其能力。然而,当你有许多不同的 API 时,启用工具使用变得很麻烦,因为任何工具都需要:

  • o 手动跟踪并输入给 LLM
  • o 手动描述(包括其预期的 JSON 模式)
  • o 每当其 API 发生变化时手动更新

为了使工具更容易在任何给定的具代理性框架中实现,Anthropic 开发了模型上下文协议(MCP)。MCP 为天气应用和 GitHub 等服务标准化了 API 访问。

它由三个组件组成:

  • o MCP 主机 —— LLM 应用程序(例如 Cursor),管理连接
  • o MCP 客户端 —— 与 MCP 服务器保持一对一连接
  • o MCP 服务器 —— 为 LLM 提供上下文、工具和能力

例如,假设你希望某个 LLM 应用程序总结你仓库中的最新 5 次提交。

MCP 主机(与客户端一起)将首先调用 MCP 服务器,询问有哪些工具可用。

LLM 收到信息后,可能会选择使用某个工具。它通过主机向 MCP 服务器发送请求,然后接收结果,包括所使用的工具。

最后,LLM 收到结果,并可以向用户解析答案。

计划

工具使用使 LLM 能够增强其能力。它们通常通过类似 JSON 的请求调用。

但是,LLM 在具代理性的系统中如何决定使用哪个工具以及何时使用呢?

这就是计划的作用。LLM 代理中的计划涉及将给定任务分解为可操作的步骤。

推理

计划可操作步骤需要复杂的推理行为。因此,LLM 必须能够在规划任务的下一步之前展示这种行为。

“推理型”LLM 是那些倾向于在回答问题之前“思考”的 LLM。

这种推理行为可以通过大致两种选择来实现:微调 LLM 或特定的提示工程。

通过提示工程,可以创建 LLM 应该遵循的推理过程的例子。提供例子是引导 LLM 行为的好方法。

在训练 LLM 时,可以给它足够数量包含类似思维的例子的数据集,或者 LLM 可以发现自己的思考过程。例如 DeepSeek-R1,其中使用奖励来引导使用思考过程。

推理与行动

在 LLM 中启用推理行为很好,但并不一定使其能够规划可操作的步骤。

到目前为止关注的技术要么展示推理行为,要么通过工具与环境互动。

例如,链式思考纯粹关注推理。

将这两个过程结合起来的最早技术之一被称为 ReAct(推理与行动)。

ReAct 通过精心设计的提示来实现这一点。ReAct 提示描述了三个步骤:

  • o 思考 —— 关于当前情况的推理步骤
  • o 行动 —— 要执行的一系列行动(例如,工具)
  • o 观察 —— 关于行动结果的推理步骤

LLM 使用这个提示来引导其行为以循环的方式进行思考、行动和观察。

反思

没有人,即使是具有 ReAct 的 LLM,也并非每个任务都能完美完成。失败是过程的一部分,只要你能反思这个过程就行。

这个过程在 ReAct 中缺失,而 Reflexion 正是填补这一空白的地方, 利用verbal reinforcement 帮助代理从之前的失败中学习的技术。

假设了三个 LLM 角色:

  • o 行动者 —— 根据状态观察选择并执行行动。
  • o 评估者 —— 对行动者产生的输出进行评分。
  • o 自我反思 —— 对行动者采取的行动和评估者生成的评分进行反思。

Multi-Agent协作

探索的Single-Agent存在几个问题:工具太多可能会使选择复杂化,上下文变得过于复杂,任务可能需要专业化。

相反,可以转向Multi-Agents,即多个Agents相互互动以及与它们的环境互动的框架:

这些Multi-Agent系统通常由专业化的代理组成,每个Agent都配备了自己的一套工具,并由一个主管监督。主管管理Agent之间的通信,并可以为专业化的代理分配特定的任务。

每个Agent可能有不同的工具类型可用,也可能有不同的记忆系统。

在实践中,有几十种Multi-Agent架构,其核心有两个组成部分:

  • o Agent初始化 —— 如何创建各个(专业化的)代理?
  • o Agent协调 —— 如何协调所有代理?

人类行为的交互式仿真

可以说最具影响力且坦率地说非常酷的多代理论文之一是“Generative agents: Interactive simulacra of human behavior”。创建了可以模拟可信人类行为的计算软件代理,他们将其称为生成性代理。

每个生成性代理被赋予的档案使它们以独特的方式行事,并有助于创造更有趣和动态的行为。

每个Agent都用三个模块(记忆、计划和反思)初始化,非常类似于我们之前看到的 ReAct 和 Reflexion 的核心组件。

它们共同允许代理自由地进行行为并相互互动。因此,Agent之间几乎没有协调,因为它们没有特定的目标需要努力实现。

模块化框架

无论你选择哪种框架来创建Multi-Agent系统,它们通常由几个要素组成,包括其档案、对环境的感知、记忆、计划和可用行动

流行框架是 AutoGen、MetaGPT 和 CAMEL。每个框架在Agent之间的通信方式上略有不同。但归根结底,它们都依赖于这种协作性的沟通。Agent有机会相互交流,以更新它们的当前状态、目标和下一步行动。

最近几周,这些框架的增长呈爆炸式增长。

2025 年将是令人兴奋的一年,AI Agents将迎来更多的落地,什么时候入局AI Agents都不晚!DeepSeek R1 + Agent 的下半场

相关推荐

十分钟让你学会LNMP架构负载均衡(impala负载均衡)

业务架构、应用架构、数据架构和技术架构一、几个基本概念1、pv值pv值(pageviews):页面的浏览量概念:一个网站的所有页面,在一天内,被浏览的总次数。(大型网站通常是上千万的级别)2、u...

AGV仓储机器人调度系统架构(agv物流机器人)

系统架构层次划分采用分层模块化设计,分为以下五层:1.1用户接口层功能:提供人机交互界面(Web/桌面端),支持任务下发、实时监控、数据可视化和报警管理。模块:任务管理面板:接收订单(如拣货、...

远程热部署在美团的落地实践(远程热点是什么意思)

Sonic是美团内部研发设计的一款用于热部署的IDEA插件,本文其实现原理及落地的一些技术细节。在阅读本文之前,建议大家先熟悉一下Spring源码、SpringMVC源码、SpringBoot...

springboot搭建xxl-job(分布式任务调度系统)

一、部署xxl-job服务端下载xxl-job源码:https://gitee.com/xuxueli0323/xxl-job二、导入项目、创建xxl_job数据库、修改配置文件为自己的数据库三、启动...

大模型:使用vLLM和Ray分布式部署推理应用

一、vLLM:面向大模型的高效推理框架1.核心特点专为推理优化:专注于大模型(如GPT-3、LLaMA)的高吞吐量、低延迟推理。关键技术:PagedAttention:类似操作系统内存分页管理,将K...

国产开源之光【分布式工作流调度系统】:DolphinScheduler

DolphinScheduler是一个开源的分布式工作流调度系统,旨在帮助用户以可靠、高效和可扩展的方式管理和调度大规模的数据处理工作流。它支持以图形化方式定义和管理工作流,提供了丰富的调度功能和监控...

简单可靠高效的分布式任务队列系统

#记录我的2024#大家好,又见面了,我是GitHub精选君!背景介绍在系统访问量逐渐增大,高并发、分布式系统成为了企业技术架构升级的必由之路。在这样的背景下,异步任务队列扮演着至关重要的角色,...

虚拟服务器之间如何分布式运行?(虚拟服务器部署)

  在云计算和虚拟化技术快速发展的今天,传统“单机单任务”的服务器架构早已难以满足现代业务对高并发、高可用、弹性伸缩和容错容灾的严苛要求。分布式系统应运而生,并成为支撑各类互联网平台、企业信息系统和A...

一文掌握 XXL-Job 的 6 大核心组件

XXL-Job是一个分布式任务调度平台,其核心组件主要包括以下部分,各组件相互协作实现高效的任务调度与管理:1.调度注册中心(RegistryCenter)作用:负责管理调度器(Schedule...

京东大佬问我,SpringBoot中如何做延迟队列?单机与分布式如何做?

京东大佬问我,SpringBoot中如何做延迟队列?单机如何做?分布式如何做呢?并给出案例与代码分析。嗯,用户问的是在SpringBoot中如何实现延迟队列,单机和分布式环境下分别怎么做。这个问题其实...

企业级项目组件选型(一)分布式任务调度平台

官网地址:https://www.xuxueli.com/xxl-job/能力介绍架构图安全性为提升系统安全性,调度中心和执行器进行安全性校验,双方AccessToken匹配才允许通讯;调度中心和执...

python多进程的分布式任务调度应用场景及示例

多进程的分布式任务调度可以应用于以下场景:分布式爬虫:importmultiprocessingimportrequestsdefcrawl(url):response=re...

SpringBoot整合ElasticJob实现分布式任务调度

介绍ElasticJob是面向互联网生态和海量任务的分布式调度解决方案,由两个相互独立的子项目ElasticJob-Lite和ElasticJob-Cloud组成。它通过弹性调度、资源管控、...

分布式可视化 DAG 任务调度系统 Taier 的整体流程分析

Taier作为袋鼠云的开源项目之一,是一个分布式可视化的DAG任务调度系统。旨在降低ETL开发成本,提高大数据平台稳定性,让大数据开发人员可以在Taier直接进行业务逻辑的开发,而不用关...

SpringBoot任务调度:@Scheduled与TaskExecutor全面解析

一、任务调度基础概念1.1什么是任务调度任务调度是指按照预定的时间计划或特定条件自动执行任务的过程。在现代应用开发中,任务调度扮演着至关重要的角色,它使得开发者能够自动化处理周期性任务、定时任务和异...

取消回复欢迎 发表评论: