- 博客(116)
- 收藏
- 关注
原创 一文了解:Multi-Agent多智能体核心架构的协调与调度模块是如何工作的?
以 “冲突解决 - 结果汇总” 为终点,保障任务高效完成;而 LangGraph 框架则将这一复杂逻辑封装为 “节点 + 边 + 状态” 的简洁模型,让开发者无需关注调度细节,只需定义规则即可快速搭建高效的多智能体协作系统。
2025-12-23 10:19:32
839
原创 深度分析:AI智能体记忆是如何管理的?
AI 智能体记忆管理已从简单的 "存储 - 检索" 发展为完整的记忆生态系统,核心技术包括:分层记忆架构模拟人类记忆机制;向量化存储实现语义理解和快速检索;生命周期管理确保记忆 "质" 与 "量" 的平衡;上下文整合让记忆与推理深度融合;以及各类专用框架提供一站式解决方案。
2025-12-17 15:41:53
1046
原创 LangChain 1.0 VS LangGraph 1.0:智能体我该用哪一个?
若需求是 “快速搭简单 LLM 应用”(如 RAG、单轮工具调用),直接用LangChain 1.0,开发快、复杂度低;若需求是 “构建复杂 Agent 系统”(多步骤、循环、多角色),用LangGraph 1.0,基于 LangChain 1.0 的组件,聚焦工作流编排,避免重复造轮子;实际开发中,二者常结合使用:用 LangChain 1.0 封装工具、模型、记忆模块,用 LangGraph 1.0 编排复杂工作流。简单来说,LangChain 1.0 是 “万能扳手”,能搞定所有基础活;
2025-12-16 17:19:44
677
原创 AI智能体拥有持久记忆:基于LangGraph的长短期记忆管理实践指南
基于大语言模型(LLM)的智能体(Agent)系统中,记忆机制是实现持续、连贯和个性化交互的核心基石,通过记忆,可以让Agent记住过往的交互,保持上下文的一致性,并能从反馈中学习,适应用户的偏好。
2025-12-15 16:10:46
571
原创 AI智能体框架实践:LangGraph在数据流转中起到什么作用?
MCP 负责 “数据的进出标准化”,LangChain 负责 “数据的格式翻译”,而 LangGraph 负责 “数据的路径规划和全程管控”—— 这也是三层架构中,LangGraph 作为 “编排层” 的核心意义。
2025-12-15 13:50:14
797
原创 一文了解:智能体大模型LangChain 和 Dify有什么区别?
Dify凭借其完整的UI解决方案和无缝的集成能力而出众,而Langchain则以其简洁和专注的功能脱颖而出。这两个平台各自有独特的优势,能够满足AI应用开发的不同需求。
2025-12-12 10:19:24
567
原创 智能体深度分析:大模型应用中的 MCP 与 API,关系、差异与协作逻辑
二者的结合,既解决了传统 API “适配碎片化” 的痛点,又保留了 API 的高效执行特性,是大模型从 “实验室原型” 走向 “企业级应用” 的关键支撑。在实际开发中,需拒绝 “非此即彼” 的思维,根据场景让 MCP 的 “灵活性” 与 API 的 “高效性” 形成合力。
2025-12-11 10:24:08
757
原创 我们真的需要智能体吗?一文讲透大模型与智能体的边界、场景与最佳实践
归根到底,智能体是“在合适的问题中被正确使用”时才真正强大。真正优秀的 AI 系统不是为了使用智能体而使用智能体,而是能够在正确的场景中,用最恰当的方法解决问题——这也是未来 AI 应用从“模型时代”走向“系统时代”的关键所在。
2025-12-10 10:47:10
710
原创 智能体框架深度解析:数据在LangGraph、LangChain与MCP之间是如何流转的?
外部请求 → MCP 标准化 → LangChain 格式转换 → LangGraph 流程调度 + 执行 → LangChain 反向转换 → MCP 标准化响应 → 外部输出,全程以 “标准化格式” 和 “状态驱动” 为核心,三层各司其职,实现数据无缝流转~
2025-12-10 10:29:49
578
原创 AI动态:即将恢复进口的H200 GPU性能在智能体领域处于什么水平?
近期,美国将允许英伟达向中国出售H200人工智能芯片,两年前发布的H200芯片相比于其前代产品H100芯片拥有更多的高带宽内存,使其能够更快速地处理数据。据估计,H200芯片的性能是英伟达H20芯片的两倍。
2025-12-09 10:31:54
647
原创 深度拆解 Claude 的 Agent 架构:MCP + PTC、Skills 与 Subagents 的三维协同
Anthropic 这家“AI 后期之秀”擅长在 Agent 工程领域“整活”。除了大家熟知的MCP(模型上下文协议)外,前两个月抛出了两个新概念:Skills (技能)与 程序化工具调用(PTC),并在自身的Claude开发平台落地支持。
2025-12-08 15:22:27
1078
原创 智能体架构相爱相杀?一文了解LangChain 和MCP 集成的问题与思路
今年以来 mcp实在太火了,有个比喻挺贴切的,当大模型有了 mcp就相当于有了手和脚,真正可以替用户干活了。甚至,有预言 mcp会是未来专属大模型的 app。而 Anthropic 模型上下文协议(MCP)则为模型与外部工具之间的交互提供了一种标准化的方式。langchain-mcp-adapters 库的出现,使得 MCP 工具能够无缝集成到 LangChain 和 LangGraph 中,为开发者提供了更多的工具选择和更灵活的应用开发方式。
2025-12-08 11:30:23
643
原创 智能体架构深度解析::一文了解LangChain、LangGraph与MCP框架集成原理分析
LangChain、LangGraph 与 Python MCP 是智能体的核心框架,要弄清楚框架的集成原理,需先明确三者的核心定位与分工,再拆解接口适配、数据流转、执行流协同三大核心维度 —— 本质是「LangGraph 做编排层、LangChain 做适配层、MCP 做标准化交互层」的三层协同架构。
2025-12-05 10:01:19
943
原创 小模型也能当“大脑“!NVIDIA提出ToolOrchestra:用8B模型指挥工具团队,性能超GPT-5还省钱
与其让一个超大模型单打独斗解决所有问题,不如训练一个小模型来当"指挥官",协调各种工具和专业模型一起工作。就像一个优秀的项目经理,不需要自己什么都会,但要知道在什么时候找什么样的专家来帮忙。
2025-12-04 10:13:15
579
原创 大厂算力调研:CPU/GPU算力使用及迁移情况
在明年预计支持三四十万亿token需求时,总体需要约二十六七万张卡,其中50%-60%为训练卡,40%-50%为推理卡,包括L20和580系列。在未来,为优化成本及提升效率,将逐步将部分CPU任务迁移至GPU,但整体增加量预计仅为10%-20%,不会出现大规模扩容。而豆包平台作为一个AI对话系统,其日均query量达到4.2亿次,对应DAU约6,000多万,每天消耗5.5万亿至6万亿token,因此需要更多硬件资源支持。此外,由于原有系统表现良好,通过新技术优化后的提升空间有限,因此切换速度较慢。
2025-12-03 11:32:29
617
1
原创 一文了解:MCP标准化和RAG技术是如何协同工作的?
随着大型语言模型(LLM)技术的成熟,检索增强生成(RAG)应用正逐渐成为连接企业知识与AI能力的重要桥梁。MCP 标准化拓展 RAG 技术应用场景的具体案例,覆盖企业服务、金融、医疗、工业等领域。
2025-12-01 11:20:20
1037
原创 三分钟了解:MCP的标准化对RAG技术有哪些影响?
今天要深入剖析的 MCP(Model Context Protocol)驱动的智能体化RAG系统,正是为了根治这一痛点而生。它的革命性不在于增加了多少新工具,而在于赋予了AI一个“工具选择大脑”。这个系统让AI助手第一次拥有了“情境感知”能力,能够像一位经验丰富的专家一样,根据问题的性质,自动、智能地选择最合适的工具链。接下来,让我们一起看看它是如何实现的。
2025-11-28 14:15:05
514
原创 一文了解:MCP和其他大语言模型工具调用流程有什么不同?
MCP与其他大语言模型工具调用流程的核心不同在于:MCP是一个标准化协议层,而传统工具调用是模型与宿主应用的直接交互机制。传统工具调用像是直接操作自家打印机,而MCP则像是通过统一标准的外卖平台订购服务,省去了为每个工具单独开发适配器的复杂性。
2025-11-27 16:18:49
534
原创 AI研究:开源框架LangChain的优势和劣势分别是什么?
LangChain 作为开源的 LLM 应用开发框架,核心优势是生态丰富、灵活性强、支持复杂场景落地,但也存在学习成本高、性能优化依赖经验等明显劣势
2025-11-25 10:03:26
986
原创 简单说说算力网络:512台H100如何组建集群?
采用IB网络组集群,256台服务器已经是Spine-Leaf两层架构的极限了,超过256台就必须上三层架构,即:Core-Spine-Leaf三层架构。因此,今天介绍的512台H100的组网,我们是按三层IB网络考虑。
2025-11-19 09:24:58
464
原创 再谈AI芯片:GPU、TPU 与 NPU:有何区别
除了大众熟悉的中央处理器(CPU)外,神经网络处理器(NPU)、图形处理器(GPU)与张量处理器(TPU)也已加入处理器阵营。
2025-11-18 13:13:38
814
原创 国产GPU芯片在哪些领域可以替代英伟达产品?
国产 GPU 已在多个领域实现对英伟达的有效替代,呈现 "差异化竞争、局部突破、生态加速" 态势。根据最新市场数据,国产 GPU 在 AI 训练市场份额已达 42%,在边缘计算、政务金融等领域渗透率超 30%,形成与英伟达互补格局。
2025-11-17 15:54:55
1240
原创 给MCP加上RAG,工具准确率提升200%,起飞~
给 MCP(管理控制平台)集成 RAG,优先采用 “基础流水线 + 增强检索” 混合架构,核心是嵌入 “运维知识检索 + 故障案例匹配” 能力,解决 MCP 的运维问答、故障排查、配置咨询等场景痛点,且不侵入原有 MCP 核心控制逻辑。
2025-11-17 15:27:30
616
原创 关于智能体(AI Agent)最常用框架,做了超详细的总结!
与 AutoGen 和 AgentScope 这样功能全面的框架不同,CAMEL最初的核心目标是探索如何在最少的人类干预下,让两个智能体通过“角色扮演”自主协作解决复杂任务。LangGraph 作为 LangChain 生态系统的重要扩展,代表了智能体框架设计的一个全新方向。与前面介绍的基于“对话”的框架(如 AutoGen 和 CAMEL)不同,LangGraph 将智能体的执行流程建模为一种状态机(State Machine),并将其表示为有向图(Directed Graph)。在这种范式中,图的。
2025-11-14 14:38:43
712
原创 一文搞懂:MCP、RAG、Agent的区别与联系、落地应用案例
摘要:MCP、RAG和Agent构成大语言模型应用的三大核心组件,分别承担模型调度、知识增强和智能决策功能。MCP作为基础层负责模型资源管理;RAG作为中间层通过检索外部知识提升输出准确性;Agent作为执行层处理复杂任务。三者协作可实现高效、准确的智能应用落地。不同行业应用侧重不同:金融需强化安全审计,医疗注重隐私保护,电商侧重响应速度。实施路径建议从MCP基础建设开始,逐步叠加RAG和Agent功能,形成完整价值链路。
2025-11-12 17:32:12
1094
原创 AI研究员必看:一文说清LLM 不同模型规模算力配置清单
这个问题直击 LLM 落地的核心痛点,非常关键!LLM 应用架构的算力要求无固定标准,核心取决于,核心结论是:推理阶段以中高端 GPU 为主,训练阶段需大规模 GPU 集群,且算力需求随模型参数、并发量呈非线性增长。
2025-11-11 11:23:11
1941
原创 AI数据库研究:RAG 架构运行算力需求?
RAG 架构运行算力需求与架构复杂度、知识库规模、检索 / 生成并行量正相关,从 “低成本 CPU 可用” 到 “高成本 GPU 集群” 不等,优先按架构模式匹配算力,再根据业务量弹性扩容。
2025-11-10 16:38:13
957
1
原创 一文读懂:如何选择适合的RAG系统架构设计模式?
RAG(检索增强生成)系统核心架构模式可归为 4 类,核心逻辑是 “检索外部知识 + 生成式 AI 融合”,解决大模型知识滞后、事实不准确的问题。选择 RAG 架构模式的核心逻辑是 “需求优先级排序 + 资源约束匹配”,优先根据查询复杂度、知识库规模、精准度要求筛选,再结合开发成本、迭代需求最终确定。
2025-11-10 11:49:24
951
原创 一篇就够!三种主流AI Agent核心区别全解析,新手也能轻松入门
AI Agent(AI 智能体):一种结合人工智能与一系列工具的应用。为体现“智能化”的概念,智能体必须具备三个要素:智能、工具、步骤。三种主流Agent自主编排Agent(Autonomous Agent):一种在启动后能完全独立运行的AI智能体。人机回环Agent(Human-in-the-Loop Agent):一种在运行过程中会向人类发起提示的AI智能体。固定工作流(Workflow):通过预定义系列步骤来完成任务的应用。
2025-11-10 10:44:20
538
原创 一文了解LLM应用架构:从Prompt到Multi-Agent
本文系统梳理了大语言模型(LLM)应用的演进历程,从Prompt阶段、Chain编排阶段到Agent阶段和Multi-Agent阶段。Prompt阶段通过提示词激活LLM智能;Chain阶段通过流程编排实现工具组合,但限制LLM灵活性;Agent阶段赋予LLM自主规划能力,但存在稳定性问题;Multi-Agent则通过分工协作提升智能水平。
2025-11-07 13:53:14
719
原创 普通开发者平衡训练与推理资源的实用指南:如何在实际工作中平衡训练和推理的资源需求?
【摘要】深度学习中训练与推理阶段存在显著资源差异:训练需高性能硬件处理计算和内存需求,而推理更关注持续优化成本。训练优化策略包括预训练微调、混合精度训练和分布式计算;推理优化则侧重模型压缩(量化/剪枝/蒸馏)、高效推理引擎和弹性架构。平衡两者的核心原则是:优先优化长期成本更高的推理环节,采用量化+蒸馏+高性能引擎;训练阶段则组合预训练、混合精度和梯度累积等技术。实施路线建议从基础优化开始,逐步升级到分布式训练和弹性部署,最终形成训练-优化-部署-监控的闭环流程。
2025-11-07 11:11:09
1034
原创 一文了解-大语言模型训练 vs 推理:硬件算力需求数据对比
大语言模型 (LLM) 的训练和推理对硬件算力需求存在数量级差异,训练阶段消耗的算力约为推理的10^4-10^6 倍,具体体现在以下几个方面,大语言模型的训练和推理对硬件算力需求的具体差异的数据支撑如下
2025-11-06 13:53:02
1612
原创 云圈王炸:一文了解NVIDIA推出的Inference Cloud
Inference Cloud 的核心应用价值是通过 “边缘分布式推理” 打破传统集中式 AI 服务的局限,为各类场景提供低延迟、高性价比、可扩展的智能支撑。
2025-11-06 11:35:58
873
原创 从“被动”到“主动”:AI Agent的落地技术分享
如果说大语言模型(LLM)是赋予了AI一个“聪明的大脑”,那么AI Agent(智能体)则是为这个大脑配上了“手脚”,使其能够感知环境、规划决策、执行任务,真正从“对话机器”迈向“数字员工”。AI Agent的落地,标志着人工智能应用进入了以“自主性”和“行动力”为核心的新阶段。
2025-11-05 11:19:56
480
原创 一文读懂:RAG 系统架构设计模式介绍
在模块化RAG(Retrieval-Augmented Generation)设计中,各种操作模式通过模块化的方式协同工作,形成了一个名为 RAG流 的工作流程。这个 RAG流 可以被视为由多个子函数组成的图形结构。通过控制逻辑,这些子函数会按预定的顺序执行,同时也能根据需求进行条件判断、分支或循环。
2025-11-05 09:31:42
601
原创 AI研究:大语言模型(LLMs)需要怎样的硬件算力
LLMs 的硬件算力需求呈现规模驱动型与优化敏感型双重特征:千亿参数模型训练依赖超算集群(如 Blackwell GB200 NVL72),而推理阶段通过量化、架构创新和边缘硬件(如高通 AI250)已实现成本与性能的平衡。未来,随着 3nm 制程普及和存算一体技术成熟,7B-13B 模型有望在边缘设备实现实时交互,而企业级应用仍需依赖云原生的 Blackwell/H200 集群。选择硬件时需综合考虑模型规模、延迟要求和成本预算,优先采用支持混合精度计算、高速互联和显存优化的平台。
2025-11-04 13:37:42
1975
原创 实战·Agentic 上下文工程(上):无需微调,让智能体自我学习与进化
在提示工程的年代,我们教AI“怎么回答”;而在Agent(智能体)的时代,我们要教它“怎么思考”。于是,提示工程进化成了一个新形态 — 上下文工程(Context Engineering) — 它不再是微调一行提示,而是构建一个能让AI感知世界、自主决策与行动的舞台。
2025-11-04 11:15:53
871
原创 智能体(AI Agent)入门,一篇超详细的总结!
在本章,让我们回到原点,一起探讨几个问题:智能体是什么?它有哪些主要的类型?它又是如何与我们所处的世界进行交互的?通过这些讨论,希望能为你未来的学习和探索打下坚实的基础。
2025-11-04 10:21:30
845
原创 【大模型】多模态大语言模型(MLLMs):架构演进、能力评估与应用拓展的全面解析
多模态大语言模型(MLLMs)作为人工智能领域的前沿技术,正在突破传统大语言模型的单一文本处理限制,实现对图像、音频、视频等多种模态数据的深度理解与生成。本文将从技术本质、架构设计、能力评估到应用场景与发展趋势,进行全面而深入的剖析,帮助您建立对这一技术的系统性认知框架。
2025-11-03 14:16:25
1185
原创 AI研究:轻量模型和专用模型在算力优化上的差异对游戏制作的效率和质量有何影响?
轻量模型与专用模型在算力优化上的核心差异(普适性压缩 vs 任务针对性优化),直接影响游戏制作的效率节奏(生成速度、迭代周期、资源消耗)和质量表现(细节精度、风格一致性、引擎适配性)。这种影响在不同制作阶段(原型设计、资产量产、核心资产精修)中呈现出显著差异,具体如下
2025-11-03 13:46:27
1763
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅