- 博客(238)
- 收藏
- 关注
原创 结构化输出指南:三个必备prompt提示技巧
当我们尝试将LLM融入到实际的应用程序或工作流程中时,却常常遇到一个棘手的问题——模型输出的信息格式并不总是我们所期望的。它们的回答往往是一段段自由形式的文本,这对于人类理解来说可能足够,但对于代码和自动化系统而言,处理起来却困难重重。这时候,结构化输出(Structured Output)的重要性就凸显出来了。本文将为初学者详细介绍结构化输出的概念、重要性,并深入讲解三个必备的提示技巧,帮助大家更好地从大语言模型中获取可用的结构化数据。
2025-05-04 08:15:00
523
原创 AI Agent评估:指标、策略与最佳实践
AI智能体正逐渐融入到各个领域,从日常的对话助手到复杂的工作流程自动化,其应用范围不断拓展。然而,确保这些智能体能够可靠、高效地完成任务至关重要,这就使得AI智能体评估成为了人工智能发展过程中不可或缺的一环。本文将深入探讨AI智能体评估的指标、策略以及最佳实践,为读者全面解读这一关键领域。
2025-05-03 08:15:00
837
原创 从零开始构建多源知识图谱提取器:方法、实践与展望(含git链接)
知识图谱通过实体(节点)和关系(边)的形式,将复杂的信息结构化。在搜索引擎中,知识图谱能精准理解用户查询意图,提供更相关的搜索结果;在推荐系统里,依据用户与物品间的关系进行个性化推荐。随着RAG(检索增强生成)应用的普及,知识图谱的重要性愈发凸显,GraphRAG技术借助知识图谱检索扩充大语言模型(LLM)的生成上下文,显著提升RAG系统性能。多源数据包括结构化数据(如数据库表)、半结构化数据(如XML、JSON文件)和非结构化数据(如文本、图像、音频)。
2025-05-02 08:15:00
704
原创 如何使用 Python 和 FastAPI 构建带认证的 MCP 服务器(含代码)
曾经只存在于科幻想象中的场景——AI与任何应用程序无缝对接,如今正逐步成为现实。就像API长期作为开发者与软件进行交互的接口一样,模型上下文协议(Model Context Protocol,MCP)正逐渐成为AI智能体以结构化、感知上下文的方式与应用程序交互的首选标准。诸如Anthropic(该协议的创立者)、OpenAI、谷歌等众多AI供应商都在广泛采用这一协议。对于应用程序开发者和维护者而言,用户通过AI智能体而非直接与应用交互的时代已经悄然来临,支持这一转变的关键就在于搭建MCP服务器。
2025-05-01 08:15:00
644
原创 综述:从零构建RAG系统全面指南(含代码)
尽管大语言模型具备出色的推理能力和广泛的通用知识,但它们在检索精确信息、获取最新数据或提供可验证的回答时常常遇到困难。检索增强生成(Retrieval-Augmented Generation,RAG)应运而生,这一创新性方法通过将大语言模型与外部知识源相结合,有效提升了其性能。本文将深入探讨RAG的概念、重要性,并使用Python和流行的开源库从零开始构建一个完整的RAG系统。
2025-04-30 08:15:00
544
原创 阿里重磅发布Qwen3最佳开源LLM,击败 DeepSeek-R1,Llama4
Qwen3 在架构设计上融合了前沿的技术理念,延续并优化了 Transformer 架构。通过精心调整网络层数、注意力机制等关键组件,显著提升了模型对长序列文本的处理能力与效率。
2025-04-29 10:11:01
1072
原创 LLMs 防御升级:借函数调用机制打造无缝防御层
大语言模型(LLMs)展现出了令人惊叹的能力,其中函数调用功能更是让其如虎添翼。然而,这一强大功能也伴随着风险,恶意用户可能利用巧妙设计的提示进行隐秘操纵。本文将深入探讨如何将函数调用机制转化为一道无缝的防御层,有效检测和防范这些潜在威胁。
2025-04-29 08:15:00
821
原创 AI无边界:通过MCP实现不同智能体框架的协作
在人工智能飞速发展的当下,智能体框架如雨后春笋般不断涌现。从LangChain利用高度抽象的方式构建智能体,到CAMEL - AI为用户提供细致配置选项来创建智能体,不同框架各显神通。但这些框架之间就像说着不同“方言”的个体,彼此沟通困难重重。直到模型上下文协议(Model Context Protocol,MCP)的出现,才为打破这一僵局带来了希望,开启了不同智能体框架协作的新篇章。
2025-04-28 08:15:00
943
原创 LLM in a Loop:借助评估提升LLM输出效果
常规的提示工程虽然能在一定程度上提升 LLM 在各类任务中的表现,却存在核心局限 —— 高度依赖模型一次性准确执行任务的能力。在此背景下,一种通过反馈循环来改进 LLM 系统的新方法应运而生,即 “LLM in a Loop”,它借助评估(evals)机制,为提升 LLM 的输出效果开辟了新的路径。
2025-04-27 08:15:00
595
原创 MCP 安全困境与Agent安全框架的应对之道
模型上下文协议(MCP)作为 LLM 与工具交互的一项重要标准,被赋予了 “AI 领域的 USB - C 接口” 的厚望,旨在为 AI 模型与外部工具之间建立起安全、双向的连接,让 AI 能够无缝对接各类数据源、文件系统、开发工具以及 Web 浏览器等外部系统,极大地拓展 AI 的应用能力。然而,随着 MCP 的广泛应用,其安全问题逐渐浮出水面,引发了业界的广泛关注。与此同时,代理安全框架的出现为解决 MCP 的安全困境带来了新的曙光,本文将深入探讨 MCP 面临的安全挑战以及代理安全框架的应对策略。
2025-04-26 08:15:00
795
原创 如何利用网络爬虫进行大规模LLM数据收集
大语言模型的 “智慧” 很大程度上依赖于其训练数据的质量和数量。想要打造一个能够理解真实世界的模型,就必须获取来自真实世界的信息,而互联网无疑是海量数据的主要来源。本文将深入探讨如何利用网络爬虫收集大规模、适用于 AI 训练的数据,为人工智能模型的训练筑牢坚实基础。
2025-04-25 08:15:00
566
原创 构建智能多智能体 AI 系统:A2A 与 MCP 的深度剖析与实践指南
从企业复杂业务流程的自动化处理,到智能交互场景的深化拓展,多智能体协作模式展现出了超越单一模型的卓越效能。在这一发展进程中,Agent-to-Agent(A2A)协议和模型上下文协议(Model Context Protocol,MCP)作为两种主流架构方式,各自以独特的设计理念和技术特性,在不同应用场景中发挥着关键作用。深入探究它们的架构细节、技术权衡、实际应用案例以及未来发展趋势,对于企业和开发者构建高效、智能且可持续发展的 AI 系统具有重要意义。
2025-04-24 08:15:00
1014
原创 LLM架构实战:用 LangChain 和 LangGraph 打造多智能体研究助手(含代码)
大语言模型(LLM)的应用越来越广泛,从智能客服到内容创作,从数据分析到研究辅助,LLM 正逐渐改变着人们获取信息和解决问题的方式。今天,我们就来深入探讨大语言模型的架构,尤其是单智能体和多智能体架构,并手把手教大家用 LangChain 和 LangGraph 搭建一个多智能体研究助手。
2025-04-23 08:15:00
2305
原创 提示工程心理学:为何 AI “答非所问” 及解决之道
以 ChatGPT 为代表的 AI 工具日益成为人们工作、学习和生活中的得力助手。无论是撰写邮件、润色文章,还是获取创意灵感,人们都习惯向 AI 发出指令,期望得到满意的回应。然而,不少人在使用过程中都遭遇过这样的困扰:向 AI 提出请求后,得到的回答看似没问题,却又有些笼统、生硬,与自己内心的期待相去甚远,甚至完全偏离了原本想要解决的问题。这不禁让人疑惑:为何 AI 会 “答非所问” 呢?其实,这背后隐藏着复杂的心理学因素,而掌握提示工程的心理学原理,正是解锁 AI 强大潜能、让其给出理想答案的关键。
2025-04-22 08:15:00
538
原创 突破RAG局限:探秘RARE如何重塑领域大模型新范式
传统检索增强生成(RAG)技术虽然能缓解知识缺失,却始终未能突破推理能力的天花板。北京大学与上海人工智能实验室联合研发的RARE(检索增强推理建模)技术,正以革命性的思路重构领域智能的构建范式。
2025-04-21 08:15:00
733
原创 当编程遇上 Cursor AI:效率飞升的秘密在这里
当下代码编写和维护的复杂性不断攀升,开发人员面临着提高效率、保证代码质量等诸多挑战。而人工智能(AI)技术的兴起,为开发者们带来了全新的工具和解决方案。Cursor IDE 等 AI 驱动的代码编辑器,正逐步改变着开发人员编写、重构和理解代码的方式。本文将深入探讨如何借助 Cursor 这类 AI 编码助手,提升编码工作流程,为开发者提供实用的指导和建议。
2025-04-20 08:15:00
540
原创 RAG vs. CAG vs. Fine-Tuning:如何为你的大语言模型选择最合适的“脑力升级”?
每个使用过LLM的人都会发现一个残酷的现实:这些看似全能的模型,有时会给出过时的信息,偶尔会“自信满满”地编造事实(即“幻觉”问题),甚至对某些专业领域的问题表现得一窍不通。面对这些局限,人工智能领域提出了三种主流解决方案——和。它们就像给LLM安装不同的“外接大脑”,但各自的运作逻辑、适用场景和成本代价却大相径庭。本文将深入探讨这三种技术的本质差异,并通过实际案例揭示:在具体业务场景中,如何像选择汽车配件一样,为你的AI引擎精准匹配最合适的“升级模块”。
2025-04-19 08:15:00
695
原创 AI 记忆不等于 RAG:对话式 AI 为何需要超越检索增强
检索增强生成(RAG)已成为构建智能系统的标配技术。它通过 “检索 - 融合 - 生成” 的三段式流程,将外部知识库与大语言模型(LLM)结合,显著提升了 AI 回答的准确性和时效性。然而,当我们尝试构建具备类人交互能力的对话代理时,RAG 的局限性逐渐显现 —— 它本质上仍是信息检索工具,而非真正的记忆系统。理解这种差异,是突破当前 AI 交互瓶颈的关键。
2025-04-18 08:15:00
1628
原创 AI 与非结构化数据:简单 RAG 的局限及生产级解决方案全解析
非结构化数据涵盖了电子邮件、PDF 文件、会议记录等多种形式,它们充斥在各个角落,却由于缺乏固定的格式,给传统的数据处理工具带来了巨大的挑战。而人工智能(AI)的出现,尤其是大型语言模型(LLMs),为解决非结构化数据的难题带来了新的希望。但在实际应用中,简单的检索增强生成(RAG)方法却存在诸多不足,无法满足复杂的生产级场景需求。本文将深入探讨这些问题,并详细阐述如何构建适用于生产环境的有效解决方案。
2025-04-17 08:15:00
837
原创 理解生产级LLM系统架构:关键组件与应用实践
对于企业级LLM应用而言,仅仅依靠基本提示词调用大语言模型远远不够。实际业务场景要求构建精心设计的系统,该系统需具备处理复杂查询、筛选海量非结构化文档、在多轮交互中保持上下文连贯以及大规模提供准确可靠结果的能力。深入剖析生产级 LLM 系统架构的核心组件与设计要点,不仅能为企业打造高效智能的应用提供指引,更是推动人工智能技术在实际生产中深度落地的关键。
2025-04-16 08:15:00
727
原创 认识谷歌 A2A:将颠覆多智能体 AI 系统的协议
近日谷歌在 Cloud Next 25 大会上开源的 Agent2Agent(A2A)协议,无疑成为了该领域一颗耀眼的新星,引发了广泛关注和热议。这一协议被寄予厚望,有望如同一把神奇的钥匙,开启多智能体 AI 系统高效协作的全新大门,彻底改变当前人工智能应用的格局。
2025-04-15 08:15:00
896
原创 从杂乱到精准:RAG 问答系统数据集的清洗蜕变之路
RAG 系统结合语言模型和信息检索技术,通过检索相关信息来生成高质量的回答,显著提升了问答系统的性能。然而,要使 RAG 系统发挥最佳效果,高质量的数据集至关重要。原始数据集往往存在各种问题,如数据噪声、冗余和不相关信息等,这就需要有效的清洗方法来优化数据,为 RAG 系统提供坚实的基础。
2025-04-14 08:15:00
1772
原创 大概念模型(Large Concept Models)会取代提示工程吗?
大概念模型致力于超越表面的语言模式,构建对抽象概念的深度理解和表达。与传统模型不同,它的训练数据来源更为广泛,涵盖了语言、符号、逻辑、多模态信息以及目标驱动的数据。这使得大概念模型具备了一系列强大的能力。在意图识别方面,它能够理解用户隐含的需求,即使用户没有精确表述,也能把握其核心意图。例如,当用户询问 “明天去爬山要准备什么”,模型能理解用户需要的不仅是物品清单,还可能包括天气信息、路线规划等相关内容。在抽象推理能力上,大概念模型可以进行多步逻辑推理和类比思考,解决复杂的问题。
2025-04-13 08:15:00
1260
原创 提示工程中的思维结构:让大语言模型更聪明地思考
要真正挖掘 LLMs 的全部潜力,关键在于引导它们如何思考。提示工程中的思维结构正是实现这一目标的核心所在,它通过精心设计的提示技术,显著提升了模型推理能力、回答可靠性和透明度。今天我们一起了解一下提示工程中的思维结构。
2025-04-12 08:15:00
534
原创 利用 Docker Compose 构建定制大语言模型(如 Deepseek、Mistral 等)运行环境
本方案基于 Docker Compose,通过编写自定义 Shell 脚本、Nginx 配置文件、Dockerfile 以及 Docker Compose 文件,实现从启动 Ollama 服务、自动安装指定模型,到通过 Nginx 代理控制流量访问的全自动化流程。最终构建出一个名为 ollama 的容器,可通过访问,在容器内完成模型的准备与运行,为开发者提供便捷的本地模型部署体验。do if!
2025-04-11 08:15:00
272
原创 一个简单技巧让你的 LLM 更可靠
LLM 的 API 如同神秘的黑箱,既不公开训练数据,也不透露 token 级别的概率信息,使得我们难以判断其回答的可信度,这成为制约 LLMs 进一步可靠应用的瓶颈。例如,对于一段描述科技产品发布的文本,TLM API 不仅给出分类回答的可信度分数,还会解释是因为模型对关键术语的理解偏差,还是对文本整体主题把握不准导致分数高低,为后续优化提供了重要线索。实验初期,模型的基线准确率仅为 81%。利用这一分数,能够实施 “人在回路” 策略,即自动筛选出可信度低的响应,交给人工审核,从而显著提升模型的表现。
2025-04-10 08:15:00
908
原创 Meta 的 LLaMA 4 系列来了:推动开源 AI 的边界
近日人工智能领域因 Meta 发布的 Llama 4 系列语言模型而掀起了惊涛骇浪。这一系列模型以其卓越的性能、创新的架构和广泛的应用潜力,成为了众多开发者、研究人员和科技爱好者瞩目的焦点,为人工智能的发展注入了新的活力。
2025-04-09 08:15:00
733
原创 AI Agent 评测新利器——OpenAI 开源 PaperBench
评估 AI 的能力成为当下研究的关键领域。其中,AI 对前沿 AI 研究的复制能力评估意义重大,它不仅能衡量 AI 的自主性和研发能力,还能为 AI 的安全发展提供重要参考。在此背景下,PaperBench 基准测试应运而生,为评估 AI 复制 AI 研究的能力提供了全新的视角与方法。
2025-04-08 11:06:57
783
原创 探秘 LLM Agents:ReAct 框架藏着哪些惊喜?
ReAct,即 Reasoning and Acting,于 2023 年 3 月在论文 “ReAct: Synergizing Reasoning and Acting in Language Models” 中被提出。它旨在让 LLM 在解决任务时更像人类一样思考和行动。ReAct 框架主要包含三个步骤:推理、行动和观察。当接收到问题时,Agent 首先进行推理,生成解决问题的思路、计划或策略。然后,根据推理结果采取行动,比如搜索信息或与环境进行交互。
2025-04-08 11:05:53
1092
原创 理解LLM中的模型蒸馏技术(含代码示例)
想象一下,你正在向一位世界级专家(教师)学习一个复杂的主题,比如量子物理学。专家知识渊博,但他们讲解时使用的语言复杂,且花费很长时间。现在再想象有另一个人(学生),他是出色的沟通者,从专家那里学习后,用更简单、更快速的方式把相同的内容教给你,而且没有丢失核心信息。这就是模型蒸馏背后的主要思想。更正式地说,模型蒸馏是一个过程,在这个过程中,一个更小、更高效的模型(称为学生模型)被训练来复制更大、更强的模型(称为教师模型)的行为。目标是使学生模型更快、更轻量,同时在相同任务上仍能表现出色。
2025-04-04 08:15:00
858
原创 ReSearch:通过强化学习实现LLM推理与搜索协同的创新框架
ReSearch 框架的核心在于将推理链的概念进行拓展。传统的基于文本的思考方式(如 DeepSeek - R1 中被<think></think>包围的内容)只是其中一部分,搜索查询(被<search></search>包围)和检索结果(被<result></result>包围)也被纳入推理链。在这个框架里,搜索操作不再是孤立的,而是与基于文本的思考相互作用。基于文本的思考会引导何时以及如何进行搜索,而搜索结果又会影响后续的文本思考过程。
2025-04-03 08:15:00
669
原创 改进RAG:利用混合搜索与重排序优化检索效果(含代码示例)
在全文搜索中,停用词的处理至关重要。停用词是指那些在文本中频繁出现但对检索意义不大的词汇,如 “a”“the”“and” 等。通过自定义停用词列表,可以根据具体应用场景的需求,灵活地添加或排除特定的词汇。在处理科技文献检索时,一些特定领域的常用词汇可能在其他场景中属于停用词,但在该领域却具有重要意义,此时就需要将这些词汇从停用词列表中排除;反之,在处理特定格式的文本(如代码注释)时,一些特殊的符号或关键字可能需要被添加到停用词列表中,以提高检索的准确性和效率。
2025-04-02 08:15:00
626
原创 OCR技术选型:数据提取哪家强?
数据是企业运营的核心资产之一。然而,超过 85% 的商业信息以非结构化数据的形式存在,如电子邮件、报告、发票和合同等,这给计算机处理带来了极大挑战。为解决这一问题,光学字符识别(OCR)技术()应运而生。在众多 OCR 工具中,Azure AI Vision OCR 和人工智能驱动的 OCR 备受关注,它们在数据提取方面各有优劣,究竟哪一个更适合企业需求呢?让我们深入探讨一番。
2025-04-01 08:15:00
594
原创 企业 RAG 准确性提升全流程指南:从数据提取到精准检索
在企业环境中,准确高效地从大量非结构化数据(如 PDF 文件)中检索信息至关重要。基于检索增强生成(RAG)的系统在这方面发挥着重要作用,但提升其准确性是一个复杂且具有挑战性的任务。
2025-03-31 08:15:00
702
原创 从人类标签中衍生 AI 生成提示:解锁数据标注新效能
数据标注作为机器学习和深度学习的基础环节,其质量和效率直接影响模型的性能。传统的人工标注方式虽然精准,但成本高昂、耗时费力,难以满足海量数据的处理需求。随着生成式人工智能(Generative AI)技术的兴起,自动化数据标注成为可能,其中从人类标签中衍生 AI 生成提示的方法备受关注,为数据标注领域带来了新的突破。
2025-03-30 08:15:00
745
原创 阿里再开源多模态大模型Qwen2.5-Omni
多模态模型成为了研究与应用的热门领域。其中,阿里巴巴团队研发的 Qwen2.5-Omni 脱颖而出,以其创新的架构设计、卓越的性能表现以及丰富的应用场景,为多模态交互带来了全新的解决方案,引领着人工智能迈向更加智能、自然的交互时代。
2025-03-29 08:15:00
647
原创 Qwen 发布 Qwen2.5-VL-32B 模型:更智能、更轻便
Qwen2.5-VL-32B 模型的发布,为人工智能的发展注入了新的活力。从未来发展趋势来看,多模态人工智能将朝着更加智能、高效、个性化的方向发展。Qwen 团队可能会进一步优化模型,提升其在更多复杂任务上的表现,拓展模型的应用领域。
2025-03-28 08:15:00
1044
原创 DeepSeek 悄然发布 DeepSeek-V3–0324:远超预期的重大升级
DeepSeek 近期悄然发布的 DeepSeek-V3–0324,在 AI 社区和行业内引发了广泛关注。这一版本是 DeepSeek V3 模型的重要升级,其带来的一系列技术革新和性能提升远超众人预期,为开发者和企业带来了新的机遇与可能。
2025-03-27 08:15:00
681
原创 LLM中的分块技术:原理、应用与展望
在大语言模型(LLM)飞速发展的当下,分块技术(Chunking)()作为提升模型性能的关键手段,受到了广泛关注。它在优化信息处理、提高检索效率、增强模型理解能力等方面发挥着不可或缺的作用。深入探究 LLMs 中的分块技术,对于推动自然语言处理(NLP)领域的发展具有重要意义。
2025-03-26 08:15:00
953
原创 Prompt Engineering 常见陷阱及规避方法
Prompt Engineering(提示工程)()已成为与 AI 交互的关键技能。它关乎如何巧妙地构造问题或指令,让 AI 系统准确理解并给出理想回应。然而,这条探索之路布满了陷阱,稍有不慎就会影响 AI 输出的质量和效果。深入剖析这些常见陷阱,并掌握有效的规避策略,对于提升提示工程能力、充分发挥 AI 价值至关重要。
2025-03-25 08:15:00
663
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人