现有基于LLM的智能体虽然在功能上取得了进展,但缺乏模块化,导致在研究和开发中存在术语和架构上的混淆,在软件架构上缺乏统一。
“A survey on LLM based autonomous agents”提出的框架,它并没有明确指出大型语言模型(LLM)、工具、数据源和记忆是否是Agent的一部分。这种对每个模块功能的模糊区分促进了软件开发者之间的分裂,并导致不兼容和阻碍了可重用性
LLM-Agent-UMF框架通过明确区分智能体的不同组件,包括LLM、工具和新引入的核心智能体(core-agent),来解决这些问题。核心智能体是智能体的中央协调器,包含规划、记忆、档案、行动和安全五个模块,其中安全模块在以往的研究中常被忽视。
核心智能体作为基于大型语言模型(LLM)智能体的中心组成部分
核心智能体(core-agent)的内部结构
核心智能体(core-agent)是LLM-Agent-UMF框架的关键组成部分。核心智能体被设计为智能体的中央协调器,负责管理和协调智能体的各种功能和组件。内部结构被划分为五个主要模块,每个模块都有其特定的功能和责任:
核心智能体的内部结构
- 规划模块(Planning Module):
-
规划模块是核心智能体的关键组成部分,负责将复杂的任务分解成可执行的步骤,并生成有效的行动计划:
-
规划过程(Planning Process):
-
任务分解(Task Decomposition):将复杂任务分解为更简单的子任务,建立中间目标的层次结构。
-
计划生成(Plan Generation):为每个子任务制定具体计划,包括所需工具和参与方。
-
规划策略(Planning Strategies):
-
单路径策略(Single-path Strategy):生成单一路径或程序序列来实现目标,不探索替代方案。
-
多路径策略(Multi-path Strategy):生成多个计划,评估并选择最合适的路径。
-
规划技术(Planning Techniques):
-
基于规则的技术(Rule-based Technique):使用符号规划器和PDDL等正式推理方法。
-
语言模型驱动的技术(Language Model Powered Technique):利用LLM的知识和推理能力来制定规划策略。
-
反馈源(Feedback Sources):
-
人类反馈(Human Feedback):来自核心智能体与人类的直接互动,用于调整规划以符合人类价值观和偏好。
-
工具反馈(Tool Feedback):来自核心智能体使用的内部或外部工具的反馈,用于优化工具选择和使用策略。
-
同级核心智能体反馈(Sibling Core-Agent Feedback):来自同一系统内不同核心智能体之间的互动和信息交换。
- 记忆模块(Memory Module):
-
负责存储和检索与核心智能体活动相关的信息,以提高决策效率和任务执行能力。
-
记忆结构分为短期记忆和长期记忆,分别对应不同的信息存储和检索需求。
-
记忆位置包括嵌入式记忆(核心智能体内)和记忆扩展(核心智能体外,但在智能体系统内)。
-
记忆格式可以是自然语言、嵌入向量、SQL数据库或结构化列表。
- 档案模块(Profile Module):
-
定义LLM的角色和行为,以适应特定的用例和策略。
-
包含多种方法,如手工制作上下文学习方法、LLM生成方法、数据集对齐方法和新引入的微调可插拔模块方法。
- 行动模块(Action Module):
-
将智能体的决策转化为具体行动,通过行动目标、行动产生、行动空间和行动影响四个视角来定义。
-
行动产生方法包括通过记忆回忆、计划遵循和API调用请求来执行行动。
- 安全模块(Security Module):
-
监控行动模块,特别是在生产环境中,以确保LLM的安全和负责任的使用。
-
遵循机密性、完整性、可用性(CIA)原则,确保信息和资源的安全。
-
安全措施包括提示保护、响应保护和数据隐私保护。
核心智能体(core-agent)的分类
对核心智能体进行了分类,区分为主动核心智能体(Active Core-Agents)和被动核心智能体(Passive Core-Agents),以阐明它们在结构和功能上的差异。
主动和被动核心智能体的内部结构
主动核心智能体(Active Core-Agents):
-
包含规划、记忆、档案、行动和安全五个模块。
-
负责协调和管理智能体的其他组件,需要规划模块来分解任务、提供上下文、分析信息和做决策。
-
具有状态性(stateful),能够维护关于其过去交互和状态的信息。
-
能够控制LLM的行为和档案,具有动态适应不同任务的能力。
-
在多核心智能体系统中,可能需要复杂的同步机制。
多主动核心智能体架构
被动核心智能体(Passive Core-Agents):
-
主要负责执行特定程序,通常不包含规划和记忆模块。
-
通常是无状态的(stateless),只处理当前任务的状态。
-
行动模块是其核心,根据外部指令(如LLM或主动核心智能体的指令)执行操作。
-
与人类的互动通常是单向的,只能由被动核心智能体发起。
-
在多核心智能体系统中,集成新的核心智能体相对简单,因为它们主要执行特定的、有限的任务。
包括被动核心智能体的基于大型语言模型(LLM)的智能体架构
多被动核心智能体架构
混合多核心智能体(Hybrid Multi-Core Agent)架构,
-
这是一种结合了主动核心智能体(Active Core-Agents)和被动核心智能体(Passive Core-Agents)的智能体设计。
-
利用主动核心智能体的管理和协调能力,以及被动核心智能体的执行特定任务的能力。
-
在保持系统灵活性和可扩展性的同时,处理更广泛的任务。
一主动多被动核心智能体混合架构
多主动多被动核心智能体混合架构
核心智能体(core-agent)的有效性
-
验证LLM-Agent-UMF框架在设计和改进多核心智能体系统中的应用价值。
-
展示如何通过合并不同智能体的特性来创建具有增强功能的新型智能体。
-
通过将LLM-Agent-UMF框架应用于现有的智能体,如Toolformer、Confucius、ToolLLM和ChatDB,来识别和分类这些智能体中的核心智能体及其模块。
使用LLM-Agent-UMF对最新智能体进行分类。
Toolformer和Confucius的多被动核心智能体系统:结合了Toolformer和Confucius的被动核心智能体,以处理特定的工具调用和任务执行。
基于大型语言模型的智能体1(LA1):Toolformer和Confucius - 多被动核心智能体架构。
ToolLLM和ChatDB的多主动核心智能体系统:将ToolLLM的API检索能力和ChatDB的复杂推理能力结合起来,创建了一个能够执行高级任务规划和执行的智能体。
基于大型语言模型的智能体2-A(LA2-A):ToolLLM和ChatDB - 多主动核心智能体架构。
https://arxiv.org/pdf/2409.11393``LLM-AGENT-UMF: LLM-BASED AGENT UNIFIED MODELING FRAMEWORK FOR SEAMLESS INTEGRATION OF MULTI ACTIVE/PASSIVE CORE-AGENTS
AI大模型入门基础教程
第1章 快速上手:人工智能演进与大模型崛起
1.1 从AI到AIOps
1.2 人工智能与通用人工智能
1.3 GPT模型的发展历程
第2章 大语言模型基础
2.1 Transformer 模型
嵌入表示层
注意力层
前馈层
残差连接与层归一化
编码器和解码器结构
2.2 生成式预训练语言模型 GPT
无监督预训练
有监督下游任务微调
基于 HuggingFace 的预训练语言模型实践
2.3 大语言模型结构
LLaMA 的模型结构
注意力机制优化
第3章 大语言模型基础
3.1 数据来源
通用数据
专业数据
3.2 数据处理
低质过滤
冗余去除
隐私消除
词元切分
3.3 数据影响分析
数据规模影响
数据质量影响
数据多样性影响
3.4 开源数据集合
Pile
ROOTS
RefinedWeb
SlimPajama
因篇幅有限,仅展示部分资料,需要点击下方链接即可前往获取
2024最新版CSDN大礼包:《AGI大模型学习资源包》免费分享
第4章 分布式训练
4.1 分布式训练概述
4.2 分布式训练并行策略
-
数据并行
-
模型并行
-
混合并行
-
计算设备内存优化
4.3 分布式训练的集群架构
-
高性能计算集群硬件组成
-
参数服务器架构
-
去中心化架构
4.4 DeepSpeed 实践
-
基础概念
-
LLaMA 分布式训练实践
因篇幅有限,仅展示部分资料,需要点击下方链接即可前往获取
2024最新版CSDN大礼包:《AGI大模型学习资源包》免费分享
第5章 有监督微调
5.1 提示学习和语境学习
提示学习
语境学习
5.2 高效模型微调
LoRA
LoRA 的变体
5.3 模型上下文窗口扩展
具有外推能力的位置编码
插值法
5.4 指令数据构建
手动构建指令
自动生成指令
开源指令数据集
5.5 Deepspeed-Chat SFT 实践
代码结构
数据预处理
自定义模型
模型训练
模型推
第6章 强化学习
6.1 基于人类反馈的强化学习
6.2 奖励模型
6.3 近端策略优化
6.4 MOSS-RLHF 实践
第7章 大语言模型应用
7.1 推理规划
7.2 综合应用框架
7.3 智能代理
7.4 多模态大模型
7.5 大语言模型推理优化
第8章 大语言模型评估
8.1 模型评估概述
8.2 大语言模型评估体系
8.3 大语言模型评估方法
8.4 大语言模型评估实践
总结
坚持到了这儿,恭喜你,表示你有做AI大模型工程师的潜力。其实我想说的上面的内容只是冰山一角,刚开始大家不需要多么精通了解这些内容。主要是不断练习,让自己跳出「舒适区」,进入「学习区」,但是又不进入「恐慌区」,不断给自己「喂招」。
记住,学习是一个持续的过程。大模型技术日新月异,每天都有新的研究成果和技术突破。要保持对知识的渴望,不断学习最新的技术和算法。同时,实践是检验学习成果的最佳方式。通过实际项目实践,你将能够将理论知识转化为实际能力,不断提升自己的技术实力。
最后,不要忘记与同行交流和学习。AI大模型领域有许多优秀的专家和社区,他们可以为你提供宝贵的指导和建议。参加技术交流会、阅读论文、加入专业论坛,这些都是提升自己技术水平的好方法。
祝愿你在AI大模型的学习之旅中取得丰硕的成果,开启属于你的AI大模型时代!