自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(18)
  • 资源 (5)
  • 收藏
  • 关注

原创 LLamaIndex 多Agent工作流配合使用

创建第一个代理,它将使用该工具在 Web 上搜索信息,并使用该工具将这些注释保存到状态以供其他代理使用。这里需要注意的关键语法元素是: * 的 ,用于向其他代理标识代理,我们稍后会看到 * 其他代理使用它来决定将控制权移交给下一个谁 * 的 ,用于定义代理的行为 * 是代理可以将其控制权交给的代理名称的可选列表。定义代理后,我们现在可以直接实例化 MY 以创建一个多代理系统。创建一个多代理系统,该系统将按顺序执行这些代理。但也旨在支持多代理系统,其中多个代理协作完成您的任务,并根据需要将控制权移交给彼此。

2025-05-06 17:13:41 298

原创 LLamaIndex 工作流和多个Step配置

工作流内置于 LlamaIndex 核心在开发过程中,可视化您的工作流程很有帮助;

2025-05-06 17:04:25 266

原创 LLamaIndex 工作流Context上下文

默认情况下,AgentWorkflow在运行之间是无状态的。这意味着代理将没有以前运行的任何内存。为了解决工作流具有长期记忆,引入context上下文状态管理

2025-05-06 11:44:16 190

原创 LLamaIndex LLM工具调用

在 LlamaIndex 中,代理是由 LLM 提供支持的半自主软件,它被赋予一项任务并执行一系列步骤来解决该任务。它有一组工具,可以是从任意函数到完整的 LlamaIndex 查询引擎的任何内容,它会选择最好的可用工具来完成每个步骤。完成每个步骤后,代理会判断任务现在是否已完成,在这种情况下,它会向用户返回结果,或者是否需要执行另一个步骤,在这种情况下,它会循环回到起点。定义一组 Tools 类似于定义任何 API 接口,不同之处在于这些工具供代理使用,而不是供人工使用。,其中包含一系列后台功能。

2025-05-06 11:00:51 411

原创 LLamaIndex LLM简单使用

构建基于 LLM 的应用程序的第一步是使用哪个 LLM;它们具有不同的优势和价格点,您可能希望使用多个。LlamaIndex 为大量不同的 LLM 提供单一接口。基于complete会话,基于chat会话以及两种方式流式输出示例。测试使用桌面LM_Studio。3.声明简单会话函数。

2025-05-06 10:22:27 216

原创 chormadb 关键字提取和长文本切片

TF-IDE是一种统计方法,用以评估一个字词对于一个文件集或一个语料库中的其中一份文件的重要程度,字词的重要性随着它在文件中出现的次数成正比增加,但同时会随着它在语料库中出现的频率成反比下降,也就是说一个词语在一篇文章中出现次数越多, 同时在所有文档中出现次数越少, 越能够代表该文章。当前,由于对文档进行标注需要耗费大量资源且缺乏大规模的关键词提取数据集,无监督的关键词提取在实际应用中更为广泛。

2025-04-30 17:27:40 238

原创 chormadb 向量数据库

ChromaDB是一个专为AI时代设计的开源向量数据库,核心功能是高效存储和检索高维向量数据(embeddings)。与传统基于关键词匹配的数据库不同,它通过计算向量间的余弦相似度或欧氏距离来实现语义级搜索。

2025-04-30 11:19:28 222

原创 LangChain 第八章 agent工具调用

何时使用代理:代理可用于难以或无法预测所需步骤数以及无法对固定路径进行硬编码的开放式问题。LLM 可能会运行很多轮次,您必须对其决策有一定程度的信任。代理的自主性使其成为在可信环境中扩展任务的理想选择。代理可以处理复杂的任务,但其实现通常很简单。它们通常只是在循环中使用基于环境反馈的工具的 LLM。因此,清晰而周到地设计工具集及其文档至关重要。代理通常实现为 LLM 根据循环中的环境反馈执行作(通过工具调用)

2025-04-27 16:44:20 155

原创 LangChain 第七章 Evaluator-optimizer(执行优化)任务流

何时使用此工作流程:当我们有明确的评估标准并且迭代优化提供可衡量的价值时,此工作流程特别有效。良好契合的两个标志是,首先,当人类表达他们的反馈时,LLM 响应可以明显得到改善;其次,LLM 可以提供此类反馈。这类似于人类作家在制作精美的文档时可能经历。在 evaluator-optimizer 工作流程中,一个 LLM 调用生成响应,而另一个 LLM 调用在循环中提供评估和反馈。

2025-04-27 16:02:01 157

原创 LangChain 第六章 任务编排器

这使编排器能够访问所有工作程序输出,并允许它将它们合成为最终输出。正如你在下面看到的,我们遍历一个部分列表,每个部分都迭代到一个 worker 节点。它允许您动态创建 worker 节点并为每个节点发送特定的输入。每个工作程序都有自己的状态,所有工作程序输出都写入业务流程协调程序图形可访问的。由于 Orchestrator 工作线程工作流很常见,因此 LangGraph。

2025-04-27 15:38:18 117

原创 LangChain 第五章 任务流路由

路由 对输入进行分类并将其定向到专门的后续任务。此工作流允许分离关注点,并构建更专业的提示。如果没有此工作流程,针对一种输入进行优化可能会损害其他输入的性能。何时使用此工作流程:路由非常适合复杂任务,其中有不同的类别可以更好地单独处理,并且可以通过 LLM 或更传统的分类模型/算法准确处理分类。路由 对输入进行分类并将其定向到后续任务。

2025-04-27 14:56:35 207

原创 LangChain 第四章 graph并行推理

何时使用此工作流程:当可以并行化已划分的子任务以提高速度时,或者当需要多个视角或尝试以获得更高的置信度结果时,并行化是有效的。对于具有多个考虑因素的复杂任务,当每个考虑因素都由单独的 LLM 调用处理时,LLM 通常会表现得更好,从而可以将注意力集中在每个特定方面。LLM 有时可以同时处理一项任务,并以编程方式聚合其输出。这种工作流(并行化)表现为两个关键变体:分段:将任务分解为并行运行的独立子任务。投票:多次运行同一任务以获得不同的输出。

2025-04-27 14:24:10 126

原创 LangGraph 第三章 StateGraph编译

工作流是通过预定义的代码路径编排 LLM 和工具的系统。另一方面,代理是 LLM 动态指导自己的流程和工具使用,保持对他们完成任务方式的控制的系统。在构建代理和工作流时,LangGraph 提供了许多好处,包括持久性、流式处理以及对调试和部署的支持。

2025-04-27 14:05:13 170

原创 LangGraph第二章 toolNode使用

是一个 LangChain Runnable,它将图形状态(带有消息列表)作为输入,并使用工具调用的结果输出状态更新。注意ToolNode是通过AIMessage的tool_calls字段绑定。query_by_tag_and_question被调用。query_by_tag_and_question被调用。tool_call_id_1: 大雾。什么内容都没有查询到。

2025-04-27 10:51:20 121

原创 LangGraph 第一章 llm格式化输出

基于图对话案例baseChatNode。继承BaseModel定义结构。

2025-04-27 09:48:33 72

翻译 用VSTO向PowerPoint文档中添加数学公式

string latexCode1 = @"x^{2} + \sqrt{x^{2}+1}=2";string latexCode2 = @"F(x) &= \int^a_b \frac{1}{3}x^3";string latexCode3 = @"\alpha + \beta \geq \gamma";string latexCode4 = @"\overrightarrow{abc}";string latexCode5 = @"\begin{bmatrix} 1 & .

2022-01-06 12:18:28 179

转载 UE4 材质节点介绍

2019-09-27 22:15:25 1877

原创 UE4 内存管理测试 FMemory

uint8*pdata = (uint8*)FMemory::Malloc(1024); FMemory::Memzero(pdata, 1024); uint32 size = (uint32)FMemory::GetAllocSize(pdata); UE_LOG(LogTemp, Warning, TEXT("内存大小{%d}!"), size); //Log...

2019-07-06 22:49:56 2774

Ollama OllamaSetup.exe 版本v0.6.8

以前你想下载一个开源大模型如deepseek-r1,不仅要在电脑上配置各种复杂的环境,还要安装各种依赖包,自己调参数,改配置..,不知不觉一天就过去了,问题是还没搞好。 现在用Ollama的话,就简单多了,一行命令搞定:ollama run deepseek-r1 就像在手机上装APP一样简单。Ollama帮你处理好了下载、环境配置这些琐事,你直接就能用。等它下载完,模型就启动了,可以开始对话了! Ollama准确来说是一个开源的大语言模型运行框架,主要功能包括: 本地运行开源语言模型,如DeepSeek、Llama 2、Mistral、gemma等,无需云服务。 提供简单的命令行和API接口。 支持自定义模型,修改模型参数、系统提示词,模型還化和优化。3 平台支持:Linux、macOS、Windows,Docker容器化部署等等。 对开发者也友好,提供RESTful API接口,可集成到其他应用等。 Ollama的出现让开发者和普通用户都能够轻松在本地部署和使用开源语言模型,适合个人开发和小规模应用场景。 国际下载地址:https://ollama.com/download/OllamaSetup.exe 下载完Ollama客户端并安装成功之后,打开命令行终端,就会显示`ollama`命令已经可以使用了。以后无需再打开客户端软件,只需要在终端输入相关命令即可。 官网直接下载慢,现在将最新版v0.6.8转到csdn上

2025-05-06

Qt Creator 代码格式化插件Astyle

1、Qt中格式化代码工具有好几种,目前使用的最多最好用的就是Astyle 2、Windows平台下:可以直接下载带有Astyle.exe文件的压缩包,放到指定的目录即可 3、单击上面一行的“工具——选项——Beautifier”进入面板,在“General”选项卡中,选中“Enable auto format on file save”表示:当文件保存时会自动进行格式化。。。。选项“Tool”则选择“Artistic Style” 4、格式化代码的风格Google,Name:Google Value:--style=google

2022-04-25

C#语法图文教程

最简单易学的C#知识,带目录,高清,希望对您有帮助

2013-10-21

Visual+Basic+2010+入门经典 下载地址

http://dldx.csdn.net/fd.php?i=487953145718316&s=c0af15b323320e79cf6264b5fd858e64

2013-07-09

华为笔试题附答案

华为笔试题4,静态,堆栈,引用和指针,二叉树,继承和多态,虚函数,虚构造

2013-06-02

智乐软件笔试题

Gameloft 开发笔试题分享;Gameloft是一家开发和发行基于移动设备的视频游戏的跨国公司,其总部位于法国,分公司遍布全球

2013-01-30

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除