- 博客(778)
- 收藏
- 关注
原创 大模型从“胡说八道”升级为“超级舔狗”,网友:再进化就该上班了
近日,OpenAI 在其官网发文称已回滚上周 ChatGPT 中的 GPT-4o 更新,目前用户使用的是行为更加平衡的早期版本。Altam 也在 X 上发帖说明了这一调整。
2025-05-05 14:46:46
459
原创 【大模型应用】DeepSeek实现办公自动化,从PDF数据提取到HTML图表生成,收藏这一篇就够了!!
本文将演示如何通过 DeepSeek 完成 PDF 数据抓取、Excel 公式生成、VBA 图表制作以及 HTML 交互页面设计,让数据处理变得更智能、更高效。
2025-05-05 11:49:24
214
原创 Agent的安卓时刻到了!MCP协议下的Cursor与Milvus部署指南
恭喜你,发现了大模型与Agent的核心差距。通过将“万能百科全书”大模型与 规划模块(分解任务步骤)、记忆模块(存储历史与知识,通常是milvus等向量数据库)、工具调用模块(执行API/代码,比如计算器、天气、炒股软件结合,Agent可以帮助我们更好的完成如股价分析、智能出行规划在内等具体的任务。
2025-05-04 08:00:00
1309
原创 Deepseek-R1不支持Function Call?不能搭建智能体?教你一招
大模型的Function Call能力指的是模型能够根据用户需求,自动调用外部工具或API来完成特定任务的能力。例如,查询天气时调用天气API、执行数学计算时调用计算工具等。这种能力通过结构化输出来触发外部功能,使模型不仅能生成文本,还能执行实际任务。如果DeepSeek-R1不具备Function Call能力,那么就不能使用DeepSeek-R1搭建智能体。
2025-05-03 08:00:00
509
原创 【AI大模型】Agent 正在重新划分大模型竞争格局,没有基础模型,就做不了Agent
每当基座模型能力突破某个临界点,此前以工程优化能力作为卖点、从而实现某个类型能力的应用,就立刻失去价值。尽管“模型无关”的思想出现,但事实上基于模型开发的上层应用始终没有摆脱基座大模型的支配。文生图产品如此,近日来火热的 Agent 也如此。
2025-05-02 08:00:00
990
原创 【AI大模型】万字长文深度剖析基于 MCP 实现 AI 应用架构设计新范式的落地实践
AI 大模型在商业领域的应用正成为推动创新和效率提升的核心力量。其关键在于多个AI Agent 的协作,这些 AI Agent 通过分工与合作,共同承载 AI 应用所支持的业务需求。这种协作模式不仅优化了企业运营,还展现了 AI 在解决高影响力挑战中的潜力。
2025-05-01 08:00:00
759
原创 源神降临!阿里 Qwen3 全系发布,免费商用,消费级显卡就能跑!(深度解读 + 实战case)
我们知道,阿里的通义千问素来被称为AI届的“汪峰”….Qwen2.5发布时赶上了DeepSeek 爆火。被誉为200B以内无敌的QWQ-32B开源又撞车被各大自媒体吹爆的Manus…当昨天知道晚上Qwen3要发布时,期待中还有一丝丝兴奋,这次又会杀出哪个程咬金…昨天晚上,除了Qwen3,AI圈很安静,阿里终于如愿抢到了头条。朋友圈很多小伙伴一夜无眠。
2025-04-30 11:49:27
1104
原创 体验了最新的Qwen3之后,端侧之王果然没有让我失望!!
一觉醒来,Qwen3 果然如期而至!并且从来不像某CloseAI,雷声大雨点小!01 Qwen3发布Qwen3这次推出了两大系列模型,让我眼前一亮:Dense模型(常见的GPT风格)和MoE模型(混合专家模型,效率更高)。
2025-04-30 11:18:33
624
原创 如何从零训练一个LLM:尝试基于0.5B小模型复现DeepSeek-R1的思维链
第一个是简单地介绍下LLM训练的一个完整流程,侧重点在于帮助认识这个过程,而不是严谨地对每一个剖析细节,因此基本没有公式推导,但一些必要的符号是避免不了的;第二个是尝试使用小模型(0.5B)来复现DeepSeek-R1的思维链模式,仅仅是一个demo级别的实践。
2025-04-29 14:45:22
797
原创 阿里千问 3 登顶全球最强开源模型,性能超越 DeepSeek-R1、OpenAI-o1
阿里巴巴开源新一代通义千问模型 Qwen3,登顶全球最强开源模型。4 月 29 日凌晨,阿里巴巴开源新一代通义千问模型 Qwen3(简称千问 3),参数量仅为 DeepSeek-R1 的 1/3,成本大幅下降,性能全面超越 R1、OpenAI-o1 等全球顶尖模型,登顶全球最强开源模型。千问 3 是国内首个「混合推理模型」,「快思考」与「慢思考」集成进同一个模型,对简单需求可低算力「秒回」答案,对复杂问题可多步骤「深度思考」,大大节省算力消耗。
2025-04-29 11:46:40
1187
原创 读懂RAG这一篇就够了,万字详述RAG的5步流程和12个优化策略
ChatGPT、GLM等一众生成式人工智能在文本创作及文本至图像转换等领域,展现出了令人瞩目的能力。然而,这些尖端技术亦非尽善尽美,其固有的局限性如同暗礁,潜藏着诸如生成内容的虚幻性、解释性的缺失、专业知识的浅薄,以及对时代新知把握的不足等问题。为了跨越这些障碍,提升模型的效能,研究者们探索出两条主要路径:一是通过微调(Fine Tune)技术,让模型在既有基础上进一步精进;二是赋予模型与外界交互的能力,使其能够以多元的方式汲取新知。
2025-04-28 13:53:32
981
原创 LLM架构的演进之路:从Transformer到Mamba再到Transformer与Mamba的融合
本文将系统分析LLM所采用的Transformer与Mamba架构各自的优势、Mamba是如何解决Transformer架构存在的问题的,并解释当前出现的、融合两者架构的趋势和原因。
2025-04-28 11:31:22
591
原创 DeepSeek-R1的风吹到了多模态,Visual-RFT发布,视觉任务性能飙升20%
尽管DeepSeek-R1风格的模型在语言模型中已经取得了成功,但其在多模态领域的应用仍然有待深入探索。上交大等提出并开源 Visual-RFT,将 RFT 扩展到视觉任务,通过设计针对不同视觉任务的可验证奖励函数,提升 LVLMs 在视觉感知和推理任务中的性能。视觉强化微调(Visual-RFT)的概述。 与(a)数据驱动的视觉指令微调相比,(b)视觉强化微调(Visual-RFT)在有限数据下更具数据效率。(c)成功地将RFT应用于一系列多模态任务,并在底部展示了模型的推理过程示例。
2025-04-27 11:23:29
738
原创 【AI大模型】GRPO+LoRA:大模型训练极简方案!收藏这篇就够了!!
随着DeepSeek爆火,面试中也越来越高频出现,因此训练营也更新了DeepSeek系列技术的深入拆解。包括MLA、MTP、专家负载均衡、FP8混合精度训练,Dual-Pipe等关键技术,力求做到全网最硬核的解析~在进行实践 GRPO 的时候,发现现存占用过大,deepseed 一键 VLLM 安装常常与 cuda 不适配,因此尝试一直采样 lora 小参数微调,环境要求更低的方式进行 GRPO 实践。
2025-04-27 10:59:04
569
原创 GraphRAG:基于PolarDB+通义千问+LangChain的知识图谱+大模型最佳实践
本文介绍了如何使用PolarDB、通义千问和LangChain搭建GraphRAG系统,结合知识图谱和向量检索提升问答质量。通过实例展示了单独使用向量检索和图检索的局限性,并通过图+向量联合搜索增强了问答准确性。PolarDB支持AGE图引擎和pgvector插件,实现图数据和向量数据的统一存储与检索,提升了RAG系统的性能和效果。
2025-04-25 11:52:24
804
原创 dify v1.2.0 重磅发布!工作流循环节点+多场景增强,效率翻倍,开发者的终极利器!
Dify v1.2.0 正式上线! 这一版本不仅是功能的大幅跃升,更是开发者体验的全新升级。无论是工作流的自动化效率、多语言支持,还是底层架构的稳定性,Dify 团队与全球开源社区共同交出了一份令人惊艳的答卷!
2025-04-25 10:39:05
588
原创 LLM Agent原理解密:小白也能看懂的图解教程,建议收藏!!
你是不是经常听到“LLM Agent”这个词,但又对里面各种技术术语感到一头雾水?你不是一个人! 虽然各公司都在竞相构建 AI Agent,比如 GitHub Copilot、PerplexityAI 和 AutoGPT,但大多数解释都让人觉得复杂得像火箭科学。好消息是:其实没那么难。 在这篇面向初学者的指南中,你将学习到:所有 AI Agent 背后的惊人简单概念Agent 实际上是如何做决策的(用大白话来说!)如何用几行代码构建你自己的简单 Agent为什么大多数框架把实际发生的事情复杂化
2025-04-24 14:14:58
854
原创 RAG 如何融合知识图谱?一文读懂结构化增强的底层逻辑
许多企业明明拥有完整的知识图谱,却发现生成式 AI 在实际应用中依然张冠李戴、答非所问。客服流程、产品目录等信息清晰存在,但模型就是“看不见”“用不上”。问题根源在于——当前主流 RAG 架构并不能自然融合结构化语义。本文以企业构建“商品客服问答助手”的真实需求为例,聚焦用户提问如“退货最多的产品有哪些”“是否关联某批次质检异常”等结构逻辑复杂的问题,解析—RAG 如何融合知识图谱,实现业务可控、逻辑清晰的智能问答?
2025-04-24 11:23:26
554
原创 【AI大模型部署】使用ollama本地部署AI知识库,保护隐私数据
现在网络上的资源、软件各式各样,想要找到一个好用的工具非常不宜。很多时候下载的软件功能根本不是自己想要的,而且还带有广告或病毒。本想装安装一个工具,却被强制安装了很多恶意软件,造成系统变慢而且还可能其它损失。如果你需要经常处理文档,可以在本地部署一个私有化的知识库,让AI帮你分析文档而不会造成隐私泄露。使用这个多模态的私有化知识库,可实现对话,图片,文档一站式AI分析,让你轻松应对各种文章总结。
2025-04-23 19:57:16
669
原创 检索增强生成(RAG)的最新发展:一文汇总11种新型RAG算法!
随着人工智能的快速发展,检索增强生成(Retrieval-Augmented Generation,RAG)技术正在经历前所未有的演变。RAG技术通过将外部知识融入大型语言模型(LLM)的生成过程,极大地提高了AI系统的事实准确性和可靠性。如今,RAG正向更具智能性和自主性的方向发展,能够处理像超图这样的复杂结构,并适应各种专业领域的需求。
2025-04-23 14:27:33
643
原创 【AI大模型】 Langchain+DeepSeek R1从入门到精通,收藏这一篇就够了!!
LangChain 是一个专为构建基于大语言模型(LLMs)的应用而设计的强大框架。它可以帮助开发者高效地创建智能对话、搜索、数据处理、代码生成等 AI 相关应用。本文将从基础概念入手,逐步深入,帮助你全面掌握 LangChain 的核心能力。
2025-04-23 11:51:53
1039
原创 Agent未来已来?揭示LLM Agent技术架构与现实挑战
最近,大型语言模型(LLM)Agent成为了企业自动化领域的热门话题。Anthropic、OpenAI和Microsoft等科技巨头都在积极布局,预示着一场自动化革命的到来。这些AI驱动的系统被认为能够自主规划、推理和交互,完成复杂的任务,听起来就像是“自动化一切”的美好愿景。
2025-04-22 19:50:19
950
原创 11张图全面总结 MCP、A2A、Function Calling 架构设计间关系,建议收藏!
MCP(Model Context Protocol)的热度还未消散,新的 Agent 接口标准 A2A(Agent2Agent)又悄然登场。就在上周,Google 在 Cloud Next 大会上正式推出了 Agent2Agent(A2A)开放协议。简单来说,A2A 旨在为 Agent 之间的通信提供一个开放标准,促进不同 Agent 之间的协作与交互。
2025-04-22 14:27:11
894
原创 【AI大模型】用 MCP 让大模型自动批量下载文献,太香了!
MCP 最近这么火,你还不知道它是啥吗?别慌,动手实战一番就包你明白了。而且,咱这个是真的实战,绝对干货啊,全网少见的干货。我们之前讲了很多建立知识库之类的,新鲜的知识才有意思嘛。问题是新鲜货哪里来呢,徒手去搜索加下载?2025 年了,咱不能这么干了。
2025-04-22 11:25:13
808
原创 DeepSeek R1本地化部署——企业数据零泄露+Web访问+AnythingLLM 个人知识库搭建
普通个人电脑选择1.5b的模型就可以了,我16核24G的笔记本一开始选择8b的模型回答很慢,后来改为1.5b的模型问答就快很多了。
2025-04-21 19:46:58
970
原创 AI时代,天天被提到的Agent是什么?看完这一篇你就懂了!!
AI Agent(人工智能代理)是一种能够感知环境、自主决策并执行动作的智能实体。与传统AI系统不同,Agent不仅能回答问题,还能主动完成一系列复杂任务。简单来说,如果把大语言模型(LLM)比作一个"超级大脑",那么AI Agent就是给这个大脑装上了"手脚"和"工具",让它能够像人类一样主动行动,而不仅仅是被动回答问题。
2025-04-21 14:09:38
914
原创 【AI大模型】RAG 与 MCP 如何以不同方式解决大模型的局限性?看完这篇文章你就懂了!!
Claude和GPT-4o等大型语言模型 (LLM) 功能强大,但也面临两个主要限制:它们包含的知识是时效性的(更具体地说,是在训练时点固定的),并且决定它们一次可以处理多少信息的上下文窗口是有限的。检索增强生成 (Retrieval-AugmentedGeneration, RAG) 和模型上下文协议 (Model Context Protocol, MCP) 是两种可以解决这些限制的方法。在本文中,我们将简短概述这两种方法的工作原理,以及区分它们的一些差异。
2025-04-21 11:45:50
421
原创 DeepSeek本地部署教程(Windows操作系统笔记本电脑适用),建议收藏起来慢慢学!!
本地部署DeepSeek在隐私、性能、定制化、离线使用、成本、独立性、研发和合规性方面具有显著优势,适合对数据安全、性能和定制化有较高要求的用户。
2025-04-20 08:00:00
555
原创 【AI大模型实战】使用Ollama和Langchain动手开发AI搜索问答助手
大语言模型虽然已经有了很多的背景知识,但针对模型训练之后新产生的内容,或者领域内的知识进行提问,大模型本身通常无法准确给出回应,一个常用的解决方法是,借助检索增强生成(RAG),将能够用于回答问题的相关上下文给到大模型,利用大模型强大的理解和生成能力,来缓解这个问题。
2025-04-19 08:00:00
623
原创 【AI大模型】一文教你如何搭建基于大模型的智能知识库,看到就是赚到!!!
自从2022年底ChatGPT横空出世引爆了大模型技术浪潮,时至今日已经一年有余,如何从技术侧向商业侧落地转化是一直以来业内普遍关注的问题。从目前企业端观察到的情况来看,基于大模型的知识库是一个比较有潜力和价值的应用场景,能够帮助企业大幅提高知识的整合和应用效率。然而由于通用预训练大模型的训练数据主要来源于公开渠道,缺乏企业专业和私有知识,直接使用将难以支撑企业内部的专业知识问答。
2025-04-18 11:37:47
619
原创 【AI大模型】什么是提示词工程(prompt engineering)?为什么需要提示词工程?
“ 提示词工程,是一种不需要更新模型权重和参数来引导模型输出特定结果的方法**”**大模型之所以叫大模型,不但是因为其参数量大,还有训练与运营成本高。因此,从企业运营成本来说,使用大模型能用提示词解决就坚决不微调(fine-tunning),能微调解决就坚持不重新训练或设计。
2025-04-18 11:06:10
654
原创 DeepSeek+RagFlow搭建企业级知识库:Docker镜像构建基础篇
随着AI技术的火热发展,企业和个人用户需要搭建知识库的需求越来越迫切。如果自己动手搭建一个功能强大的知识库对于非专业技术人员来说可能面临挑战,更别说那些非专业人士了。我在网上看了大量相关的教程,大多数都是搬砖,偶尔看到一些非搬砖大佬写的教程,总会省略一些细节,导致很多人就算面对教程也是各种踩坑,折腾很久最后也都放弃了。
2025-04-17 12:00:51
277
原创 AI大模型优化 | 5分钟读懂LLM:DeepSeek、ChatGPT背后的核心技术
LLM(Large Language Model)是大型语言模型的简称,像DeepSeek、ChatGPT等都属于不同公司开发的LLM。你可以把它想象成一个超级聪明的聊天机器人和写作助手,它通过学习了海量文字资料,变得非常擅长理解和生成人类语言。简单来说,它能听懂你说什么,也能像模像样地跟你聊天、写文章等等。
2025-04-17 11:12:26
847
原创 【AI大模型】LLM高效推理:KV缓存与分页注意力机制深度解析
随着大型语言模型(LLM)规模和复杂性的持续增长,高效推理的重要性日益凸显。KV(键值)缓存与分页注意力是两种优化LLM推理的关键技术。本文将深入剖析这些概念,阐述其重要性,并探讨它们在仅解码器(decoder-only)模型中的工作原理。
2025-04-16 11:38:27
961
原创 【AI大模型部署】内外网DeepSeek部署实战:Ollama + 多客户端 + RAG + 越狱
最近,我一直在研究如何在内网环境中安全、高效地部署大型语言模型DeepSeek(LLM)。这篇教程不仅仅是操作指南,更是我的实战经验总结,希望能帮助大家少走弯路!
2025-04-16 11:28:57
777
原创 【尝鲜】ollama+deepseek+AnythingLLM部署个人知识库完整分享,收藏这一篇就够了!!
简单来说,ollama我理解为docker的方法部署服务,他的使用语法和docker也比较接近,deepseek就是一个训练好的模型,类似docker的镜像,跑在ollama软件上,但ollama缺少合适的界面,故使用AnythingLLM,当然也有其他的交互界面,比如Open webUI之类的,选择自己喜欢的就行,都是开源的,容易找到
2025-04-15 14:11:14
674
原创 Dify MCP 插件指南:一键连接 Zapier,轻松调用 7000+ App 工具
2025 年可谓“Agent 元年”。随着 AI Agent 的快速发展,如何让 LLM 以统一、标准的方式与外部应用交互已成为关键议题。在这之前,Anthropic 于 2024 年底推出了模型上下文协议(MCP)。作为一项新兴的开放协议,MCP 为 LLM 与外部应用之间构建了双向通信通道,就像是 AI 的“USB-C”接口,帮助模型发现、理解并安全调用各种外部工具或 API。这意味着:
2025-04-15 14:00:07
639
原创 MCP协议详解:一文读懂跨时代的模型上下文协议
MCP(Model Context Protocol,模型上下文协议)是由 Anthropic 推出的开源协议,旨在实现大型语言模型(LLM)与外部数据源和工具的无缝集成,用来在大模型和数据源之间建立安全双向的链接。目标是成为 AI 领域的“HTTP 协议”,推动 LLM 应用的标准化和去中心化。
2025-04-14 14:07:44
574
原创 【AI大模型】MCP加持下deepseek无所不能了!真的香!!
MCP 协议 指的是 模型上下文协议 (Model Context Protocol)。 以下是关于 MCP 协议的一些关键信息:定义: MCP 是由 Anthropic 提出的一个开放标准,旨在标准化人工智能应用程序(如聊天机器人、IDE 助手或自定义代理)与外部工具、数据源和系统之间的连接方式。你可以将其理解为 AI 集成的 USB 接口。
2025-04-14 11:32:57
1194
1
原创 工具调用×大模型思考=超级智能体:ReAct 策略如何改变AI能力,看完这一篇你就懂了!!
想象一下,如果普通AI是一个只会机械执行指令的机器人,那么采用ReAct策略的智能体就像是一个会先思考后行动的侦探。在解决问题时,它不会匆忙跳入结论的深渊,而是沿着"观察-思考-行动-观察"的螺旋阶梯,一步步接近真相。这就是ReAct(Reasoning + Acting)策略的魅力所在。
2025-04-13 08:00:00
1520
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人