Agent架构解析及分布式Agent协作方案

来源:AI大模型应用实践

AI Agent(智能体)系统发展迅猛,且关注点已经不再局限在Agent的规划推理等基本能力,智能体系统在扩展性、互操作、安全性等工程化方面的挑战也越来越引起重视,比如最近的MCP和A2A。上一篇我们介绍了A2A,今天接着再聊聊分布式Agent系统的话题。

Agent 模式架构解析

Agent 有效减少人类工作总量,人与 AI 协作才是最终形态。人类与 AI 交互可大致 分为三种模式。Embedding 模式中大模型可以填补一些信息缺失,完成少量子任务,例 如总结信息等等。用户最终会整合挑选 AI 提供的信息,并自主完成任务。Copilot 模式 则更加智能化,AI 可根据用户设定的流程去执行任务。例如让 AI 根据写一段稿件或者 根据需求编程,但其对 Prompt 的要求也更高。在 AI 完成流程后,用户需要对内容结果 进行调整并自主结束工作。Agent 智能体模式的 AI 参与度更高,但也不是完全由 AI 代 理。用户需要给 AI 设计一个目标和身份,以及需要使用的工具。配上更为复杂的 Prompt, AI 能自主进行任务拆分,使用工具并结束任务。用户只负责设立目标、提供资源、监督 结果。

Agent架构解析及分布式Agent协作方案_第1张图片

以 LLM 为核心,四模块铸造AI Agent。从 OpenAI 的定义来看,智能体以大语言模 型为核心,其拥有长期和短期记忆、自主规划能力、能自动化执行复杂任务、能够使用 工具等四个特点。

1)记忆模块:智能体像人类一样,能留存学到的知识以及交互习惯 等,这样的机制能让智能体在处理重复工作时调用以前的经验,从而避免用户进行大量 重复交互。短期记忆适用于所有上下文的学习,类似平常我们与ChatGPT 沟通的模式; 长期记忆则保留知识和交互回忆,例如智能体在特定行业积累的大量数据和经验,则能 提供更专业、更具深度和个性化的回答,提升用户体验。

2)规划模块:将复杂任务分 解成子目标并逐一解决,完成任务后进行反思总结。例如反思自己大量输出重复内容或 在单一子目标耗时过长等问题,将经验存入长期记忆以规避类似错误。

3)工具模块: 智能体可利用工具来弥补自身短板,通过调用外部 API 来实现功能拓展。例如调用连接 互联网的 API 去搜索实时信息。

4)行动模块:智能体会形成完整的计划流程。例如先 读取以前工作的经验和记忆,之后规划子目标并使用相应工具去处理问题,最后输出给 用户并完成反思。

单智能体 vs 多智能体

单智能体与多智能体各具优势,适配于不同垂直领域。单智能体的强化学习原理是 基于马尔可夫决策来完成的,简单来说可以分为状态集 S、行动集 A、奖励 R,下一时 刻的状态和奖励只与上一时刻的行动有关,与更早之前的状态无关。其模型原理就是让 智能体用试错的方式来学习,若某个策略能得到奖赏,则智能体产生该行为的策略就会 加强。其目的就是在单一环境中行动,尽可能得到最大的奖励。应用领域目前也较为广 泛,例如赛车游戏中连续动作的训练:控制方向盘、油门、刹车等动作,可由 DDPG、 A3C、PPO 算法来决策。一些离散动作的训练例如围棋智能体 AlphaGo,可通过 Q-Learning 等算法决策。 多智能体的决策不仅与自身行动相关,还与系统内其他智能体的行动所关联。一个 多智能体系统中会有两个以上的智能体,他们一般存在着合作或竞争关系。这样模型称 为马尔科夫博弈,其状态转换符合马尔可夫决策,关系符合博弈。在多智能体模型中, 每个智能体的目标是找到最优策略来使它在任意状态下获得最大的长期累积奖励。由于 其模型更为复杂,干扰因素较多等原因,目前多智能体模型商业化产品较少。

CrewAI 是世界领先的多智能体框架之一,在多智能体领域用于协调角色扮演型自

你可能感兴趣的:(Agent架构解析及分布式Agent协作方案)