- 博客(348)
- 收藏
- 关注
原创 让AI打游戏!能玩1000多款游戏,英伟达用4万小时视频训练出通用基础模型NitroGen
具身智能未来发展路径的突破性尝试,NVIDIA 利用 40000 小时带有按键显示的互联网游戏视频,训练出了一个能玩 1000 多款游戏的通用基础模型。,时长00:20NVIDIA 发布 NitroGen 模型,通过从公开游戏视频中提取手柄操作指令,构建了目前规模最大的视觉-动作数据集,让 AI 能够在未见过的游戏中展现出惊人的泛化能力。构建能够在未知环境中从容行动的通用具身智能体,长久以来都是人工智能研究领域的顶级目标。
2025-12-24 11:37:20
604
原创 冲刺全球大模型第一股!智谱与MiniMax双双过会
中国大模型赛道在这个岁末寒冬突然沸腾,两家独角兽企业几乎同时扣响了港交所的大门,正在争夺全球大模型第一股头衔。被视为中国版OpenAI的智谱AI与主打极致效率的独角兽MiniMax,不约而同地通过了上市聆讯。两家公司的IPO冲刺,两种截然不同生存哲学的正面碰撞。一方是源自清华象牙塔的学院派正统,手握重金,深耕基座;另一方是极具极客精神的产品派新贵,出海淘金,死磕效率。
2025-12-24 11:34:52
565
原创 杨立昆路线的新胜利:VL-JEPA来了,抛弃预测下一个词,不靠生成,照样SOTA
人工智能研究中,Yann LeCun(杨立昆)有一个独特且经常引起争议的观点。他认为仅靠以语言为中心、基于预测下一个词的规模化模型,无法通向真正具备常识、因果理解和规划能力的通用智能;它们缺乏对物理世界的内在表征与世界模型,无法自主学习和可靠推理,因此最多是强大的工具,而不是通往 AGI 的终极路径。在他的《通往自主机器智能的道路》的重要立场论文中,他提出了实现人工智能的替代框架。
2025-12-24 11:31:22
475
原创 谷歌年度重磅揭秘智能体系统的缩放定律与协作陷阱
谷歌AI双核Google Research(基础与应用研究中枢,transformer发明者)、Google DeepMind(战略级AGI研究机构,Gemini开发者)与麻省理工学院(MIT)的研究团队联合发表了一篇极具分量的论文。多智能体协作并非总能带来性能提升,研究通过180项对照实验揭示,盲目增加智能体数量可能导致任务成功率暴跌70%,并首次推导出了量化智能体系统性能的缩放定律。这篇论文给当前火热的多智能体即正义的盲目技术狂欢泼了一盆冷水,也同时递上了一把精准的手术刀。
2025-12-23 11:52:09
680
原创 开源SOTA,浙大团队多图精准控制与身份一致性新突破
浙江大学 ReLER 实验室团队开源了 ContextGen 多图参考身份一致性生成模型。ContextGen 通过 CLA(Contextual Layout Anchoring,上下文布局锚定)与 ICA(Identity Consistency Attention,身份一致性注意力)两大核心机制,在 DiT 架构下实现了对多主体位置与身份的极限控制,性能超越 GPT-4o 及 Nano Banana。多实例图像生成长期以来是计算机视觉领域的硬骨头。
2025-12-23 11:49:22
762
原创 顶尖高校联合发布重磅AI智能体记忆系统进化全景综述报告
AI的记忆不仅仅是存储过去,它是智能体跨越时间长河、实现持续进化与复杂推理的灵魂核心。过去两年,大语言模型展现了惊人的能力,但若没有记忆,它们只是拥有无限瞬时算力的健忘天才。新加坡国立大学、中国人民大学、复旦大学,北京大学等多所顶尖高校联合发布了一篇AI智能体记忆综述。这篇综述深入剖析了智能体记忆系统,提出了一种全新的分类法——形式(Forms)、功能(Functions)和动态(Dynamics),彻底重构了我们对AI记忆的认知,揭示了从静态知识库向动态认知生命体进化的完整图景。
2025-12-23 11:47:05
496
原创 腾讯混元世界模型HY-World 1.5开源,24 FPS的实时交互世界建模
腾讯混元世界模型 HY-World 1.5 开源,实现了 24 FPS(每秒帧数)的实时交互式世界生成。混元团队提出了 WorldPlay(世界交互)框架,将流式视频扩散模型与长效一致性技术深度融合。核心突破在于通过双重动作表征实现了精准的操控响应,利用重构上下文记忆解决了长程生成中的空间坍塌,并配合上下文强迫蒸馏技术将推理延迟降低至实时水平。生成式 AI 正从单纯的内容创作转向对物理世界的实时模拟。
2025-12-22 18:23:50
688
原创 原生3D-VAEs,1536³三维分辨率,清华与微软TRELLIS 2开启3D全能生成新纪元
清华与微软团队推出了TRELLIS 2系统。通过全新的O-Voxel(全体素)表示法,实现了在1分钟内生成具有极高几何精度的1536³分辨率(三维分辨率)、包含复杂物理材质属性的3D资产。核心突破在于解决长期困扰3D生成领域的拓扑灵活性与存储效率之间的矛盾。传统方法如SDF(Signed Distance Function,有向距离函数)在处理开放表面、非流形几何或嵌套结构时力不从心,而3D高斯泼溅等点云表示法则缺乏结构化的规律性,难以进行深度学习压缩。
2025-12-22 18:21:15
601
原创 提示工程发展生态与典型工具/论文简述
其核心发现是,通过在提示的示例中加入解决问题的中间推理步骤,可以显著提升大型语言模型在算术、常识和符号推理等复杂任务上的表现。这些平台的提示工程实践与国际主流趋势大体一致,但工程师在使用时需要特别关注其在处理中文特有现象(如歧义、多音字、文化隐喻)时的细微差别和最佳实践。的应用边界,使其从一个封闭的知识库,转变为一个能够感知和改变数字世界(甚至通过机器人技术改变物理世界)的行动者。在提示工程领域,其生态系统中的。年市场上主流的提示工程工具与平台,包括中国国内的代表性产品,为读者提供一份清晰的。
2025-12-22 18:19:57
647
原创 65.8%的性能提升!MiniMax开源视觉分词器扩展技术
终于知道 MiniMax 的海螺视频生成为什么那么强了!他们联合华中科技大学首次开源了其视觉生成的关键技术 VTP (视觉分词器预训练) ,在不修改标准DiT的情况下,通过扩展视觉分词器(Visual Tokenizers),实现了 65.8% 的生成性能提升。团队发现,潜空间扩散模型(LDM)的核心组件视觉分词器(例如 VAEs)存在预训练扩展难题。传统的重建驱动型预训练虽然能提升像素级准确性,但会使潜空间(latent space)充斥过多的低级噪声信息,从而损害下游生成任务。
2025-12-22 18:15:36
414
原创 全网围观的2025大语言模型回顾:AI大牛karpathy总结了六大关键节点
2025 年人工智能正式从模仿人类行为的复读机进化为拥有自主逻辑闭环的推理机器。AI 大牛 karpathy 发文回顾了 2025 年的大语言模型。这一年,我们见证了大语言模型从底层架构到交互逻辑的全面重构,基于可验证奖励的强化学习(Reinforcement Learning from Verifiable Rewards)取代了单纯的人类反馈,使模型具备了真正的思考与回溯能力。
2025-12-22 17:58:48
491
原创 比传统方法强7倍:Anthropic物理隔离危险知识,重塑大模型安全训练范式
Anthropic团队提出选择性梯度掩码技术,通过在训练阶段将危险知识物理隔离到特定参数中并在随后剔除,实现了比传统数据过滤更优的安全性与通用能力平衡,其抗恢复性是现有方法的7倍。Anthropic研究团队联合帝国理工学院、爱丁堡大学及Constellation的研究人员,发布了一项名为选择性梯度掩码(Selective GradienT Masking,简称SGTM)的新技术。
2025-12-22 17:57:31
415
原创 谷歌开源T5Gemma 2端侧模型,基于Gemma 3打造,极强视觉理解与长文本处理能力
谷歌 DeepMind 最新研究 T5Gemma 2,通过特定的转换配方,现有的纯解码器模型可以重生为具备极强视觉理解与长文本处理能力的编码器-解码器架构,且无需从头训练。DeepMind 团队基于 Gemma 3 打造了全新的 T5Gemma 2 模型家族,包含 2.7 亿、10 亿和 40 亿参数三个版本。
2025-12-22 17:53:15
566
原创 Mini-SGLang,30万行代码浓缩为5000行,大模型推理高性能教学与研究模版
这种分离式的设计保证了系统的扩展性和模块间的解耦。在具体的特性实现上,Mini-SGLang开箱即支持Llama-3和Qwen-3等主流模型,并且通过OpenAI兼容的API,使得用户可以无缝迁移现有的应用。在NVIDIA Hopper架构的GPU上,它采用了FlashAttention-3作为预填充(Prefill)阶段的内核,利用其极高的并行度加速首词生成。上图展示了开启重叠调度后的执行情况。可以看到,GPU的时间轴被填满,计算任务紧密连接,几乎没有空隙,CPU的开销被完全隐藏在GPU计算的阴影之下。
2025-12-22 17:49:55
720
原创 BOSS直聘3B超越Qwen3-32B,更多训练数据刷新小模型极限
一款仅有30亿参数的小模型,在数学和推理能力上超越了320亿参数的大模型。BOSS直聘Nanbeige大语言模型实验室,开源了它们的Nanbeige4-3B模型。
2025-12-19 18:42:19
476
原创 谷歌发布Gemini 3 Flash,全球免费,打破速度与智能不可兼得悖论
它继承了Gemini 3 Pro的逻辑能力,能更细腻地解析用户问题的细微差别。这款模型打破了人们对轻量级模型的固有认知,它不再是性能的阉割版,而是将前沿智能与极致速度融合的产物,目前已全面覆盖API、谷歌搜索以及面向消费者的全球免费的Gemini应用。它不仅继承了Gemini 3 Pro级别的推理基础,还在延迟、效率和成本控制上保持了Flash系列一贯的优势。根据Artificial Analysis(人工分析)的基准测试,Gemini 3 Flash的运行速度是Gemini 2.5 Pro的3倍。
2025-12-19 18:38:36
555
原创 登顶全球开源Top 2:AI才女罗福莉首秀,小米MiMo-V2-Flash开源
12月17日,小米人车家全生态合作伙伴大会上,MiMo大模型负责人罗福莉首次公开亮相95 后罗福莉,四川宜宾人,本科就读于北京师范大学计算机专业,硕士毕业于北京大学计算语言学研究所计算语言学专业。求学期间就在人工智能领域顶级国际会议 ACL 上发表了 8 篇论文,其中两篇为第一作者。毕业就职阿里达摩院。2022 年加入 DeepSeek 母公司幻方量化从事深度学习相关工作,后又担任 DeepSeek 的深度学习研究员,参与研发 DeepSeek-V2 等模型。
2025-12-19 18:36:19
968
原创 大模型与提示交互机制解析
来确定性地影响一个基于概率的、不确定的生成过程,使其最终的输出在宏观上看起来是可控的、智能的、且符合我们预期的。在这个比喻中,河流是模型内部的概率空间,水流是其预测下一个词的倾向,而小船就是正在生成的文本。)又会成为下一步预测的上下文,从而将一个复杂的、低概率的最终答案,分解为一连串相对高概率的、逻辑连贯的中间步骤,最终提升了复杂任务的成功率。这个词会作为一个强大的语义锚点,使得模型在后续生成中,对那些具有比喻、押韵、意象等诗歌属性的词汇和句式结构给予更高的关注度。你相当于在河流的上游开凿了一条主航道。
2025-12-18 11:16:31
531
原创 为什么智能体总失控?谷歌给出智能体设计新公式
为什么你的智能体总是不稳定?Google Cloud AI团队发布了最大化智能体设计成功率的数学推演。通过统一的概率框架将AI智能体设计从经验主义的炼金术提升为可量化的系统工程,揭示了多智能体协作本质上是对成功概率的动态搜索。
2025-12-18 11:14:03
956
原创 AI变身采访者,用1250名专业人士数据刻画了我们面对它的兴奋与焦虑
Anthropic推出了一个新工具Anthropic Interviewer(Anthropic 采访者),这款工具利用Claude的能力,对1250名来自不同领域的专业人士进行了深度访谈。AI从回答者摇身一变成了采访者,然后将采访结果进行了分析,揭示了AI正在深刻影响我们每一个人。数百万人在工作中悄悄使用AI,大多数人感到效率提升却羞于向同事承认,这种隐秘的生产力革命正在重塑我们对工作的定义。
2025-12-18 11:10:11
692
原创 加速200倍,单显卡1.8秒生成5秒高清视频!清华与Vidu解开了视频扩散模型的速度枷锁
TurboDiffusion将视频生成从漫长的渲染等待变成了实时的所见即所得。清华、生数科技与伯克利联手解开了视频扩散模型的速度枷锁。加速后的Wan2.1-T2V-1.3B-480P,单显卡1.8秒生成5秒视频,加速约93倍。Wan2.2-I2V-A14B-720P,5秒视频加速约119倍。Wan2.1-T2V-14B-720P,5秒视频加速约205倍。视频生成一直以来始终像一个沉重的巨人,它拥有惊人的创造力,却步履蹒跚。
2025-12-17 16:33:03
915
原创 AGI只是硅谷的幻想?!AI科学家盛赞中国,并从物理学角度宣告我们永远造不出AGI
AI科学家Tim Dettmers在自己的博客发表了一篇文章《Why AGI Will Not Happen》。物理世界不存在魔法,AGI和超级智能的宏大叙事正在撞上一堵名为物理法则的墙。这是一篇写给那些愿意通过物理现实而非科幻小说来审视人工智能未来的人的文章。如果你身处2025年12月,可能对AGI(通用人工智能)和超级智能(Superintelligence)抱有某种执念,要么坚信奇点临近,要么心存疑虑。
2025-12-17 11:21:15
226
原创 以孔子命名,超越Claude 4.5 Opus,Meta发布工业级自我进化AI软件工程师CCA
Meta与哈佛大学联合推出的Confucius Code Agent(孔子代码智能体,简称CCA)工业级软件工程师。软件工程的未来不在于更强的模型,而在于更聪明的架构设计与记忆管理。CCA是一套关于AI如何像人类工程师一样在庞大、复杂的工业级代码库中协作的完整方法论。通过模仿人类的认知习惯,解决了长上下文推理、持久化记忆以及工具使用等根本性难题。
2025-12-17 11:18:55
591
原创 拯救大模型的逻辑短板:Nature文章预测符号主义AI与神经网络的联姻将引爆下一场技术革命
结合逻辑系统与驱动大语言模型的神经网络,正在成为人工智能领域最炙手可热的趋势,这种复古与前沿的碰撞或许才是通往通用人工智能的真正钥匙。虽然神经网络在当前AI领域独领风骚,但由于其缺乏逻辑推理能力和黑盒特性,绝大多数专家认为仅靠它无法实现人类水平的智能。一种融合了老式符号人工智能(Symbolic AI)与现代神经网络的神经符号AI(Neurosymbolic AI)正在迅速崛起。
2025-12-16 17:40:16
757
原创 国产算力Day 0适配,一人剧组时代到来,商汤Seko 2.0降本增效让AI短剧真正落地
一人剧组时代到来,Seko 2.0通过技术降本增效让AI短剧创作真正落地。商汤Seko 2.0在行业内率先实现了创编一体与多剧集智能生成,通过突破性的一致性控制技术与国产算力深度适配,将漫剧制作周期缩短近九成。Seko2.0发布当天,国产芯片寒武纪即完成对商汤自研日日新Seko系列模型的适配。AI视频生成技术在过去一年经历了过山车般的发展。从最初惊艳的几秒钟演示,到创作者实际使用时的各种碰壁,行业逐渐从狂热回归理性。
2025-12-16 10:53:40
683
原创 推理速度提升两个数量级,何恺明团队BiFlow图像单步生成质量再度刷新纪录
MIT和清华大学的研究团队用BiFlow(Bidirectional Normalizing Flow)再度刷新生成式AI的单步生成质量纪录,Normalizing Flow架构重回巅峰。BiFlow模型打破了传统流模型必须数学可逆的桎梏,通过解耦前向与反向过程,实现了比肩甚至超越扩散模型的高质量图像生成,且推理速度提升了两个数量级。
2025-12-16 10:49:05
682
原创 智谱开源四项视频生成底层技术,击破精细控制难、复杂时空建模慢、训练成本高的难题
智谱开源SCAIL、RealVideo、Kaleido与SSVAE四项底层技术,精准击破视频生成中可控性差、实时性弱、训练成本高三大顽疾。视频生成技术精细化控制难、复杂时空建模慢、训练成本高昂始终是横亘在技术与应用之间的三座大山。智谱刚刚开源的四项核心技术成果,从底层原理出发,分别在角色动画的物理合理性、流式生成的低延迟架构、多主体的一致性表达以及扩散模型的训练效率上提供了扎实的工程解法。这四项技术是对视频生成物理规律与数学本质的一次深度解构。
2025-12-15 15:37:38
574
原创 GPT-5.2发布,超越Gemini 3、Claude Opus 4.5,专为工作和智能体打造的最强大模型
OpenAI刚刚发布了迄今为止最强大的模型系列,为专业知识型工作而打造。为什么强调“为专业知识型工作而打造”?ChatGPT企业版用户的反馈表明,AI每天平均节省40至60分钟的工作时间,重度用户每周节省超过10小时。基于此,GPT-5.2旨在进一步释放经济价值,在电子表格制作、演示文稿设计、代码编写、图像识别、长文本理解及多步骤复杂项目处理上实现了质的飞跃。而且,在各项基准测试中全面领先,又狠狠将之前最强的Gemini 3和Claude Opus 4.5按在地上摩擦。
2025-12-15 15:33:29
792
原创 3A游戏PBR材质制作起飞!育碧开源Chord,告别繁琐,用渲染分解链重塑PBR材质自动化生成
育碧(Ubisoft)旗下的先进研发部门Ubisoft La Forge,作为学术界与游戏工业之间的桥梁。它不仅仅是为了做游戏,更是为了解决游戏开发中遇到的高难度技术问题,并将学术界的前沿理论转化为实际可用的开发工具。刚刚,Ubisoft La Forge开源了Chord,让物理渲染材质生成的生成-估计二重奏响彻3D世界,为3D内容创作带来新引擎。在3A游戏开发中,PBR材质是实现视觉真实感的核心基础。
2025-12-15 15:29:35
581
原创 Science重磅!量子计算已经跨过是否可能,进入如何造出好用的量子计算机
我们正处在一个类似 1950 年代晶体管问世早期的关键时刻,量子技术已从实验室的精密玩具转变为即将改变世界的工业引擎,但仍需跨越工程化的死亡之谷。一份由 David Awschalom、Hannes Bernien 等全球顶尖量子科学家联合撰写的综述《量子信息硬件的挑战与机遇》登上了《科学》杂志。这不仅是一篇学术回顾,更像是一份站在技术分水岭上的战略蓝图。文章以极为冷静和务实的视角,审视了过去十年量子技术的爆炸式增长,并用经典的半导体发展史作为镜像,推演了量子计算、传感和网络未来的演进路径。
2025-12-15 15:26:11
835
原创 普林斯顿大学等Nature揭秘:人类大脑与大语言模型共享同一套语言处理时钟
大语言模型的层级计算序列精确映射了人类大脑处理语言的毫秒级时间动态。普林斯顿大学,谷歌研究,纽约大学,哈佛大学等,研究通过对比人类颅内脑电数据与大语言模型的内部状态,发现人工智能处理语言的深浅层级,与人类大脑理解语言的先后时间顺序存在惊人的高度一致性。
2025-12-15 15:05:12
918
原创 重磅智能系统设计哲学!众顶尖高校解构智能体AI的四种适应性生存法则
智能体系统的真正爆发点不在于单纯做大模型参数,而在于如何构建一个让大脑与工具相互适应的共生生态。伊利诺伊大学香槟分校、斯坦福大学、普林斯顿大学、哈佛大学、华盛顿大学、加利福尼亚理工学院、伯克利大学等,发布一份学术综述。深入剖析智能体AI(Agentic AI)从单纯的提示工程向复杂的系统性适应演进的内在逻辑,通过一个二维框架彻底理清大模型与外部工具之间的互动机制,揭示从DeepSeek-R1到s3等前沿技术背后的设计哲学与未来演进路径。大模型本身并不等同于智能体。
2025-12-15 14:40:08
828
原创 图像分层生成:新加坡国立大学和Lowart AI实现了图像可编辑的PSD文件输出
新加坡国立大学和Lowart AI发布OmniPSD。利用Diffusion Transformer架构解决了分层图像生成与拆解的难题,实现了真正可编辑的PSD文件输出。这是AI从生成图片向生成资产跨越。OmniPSD能通过文本生成带有透明通道的分层PSD文件,还能将单张平面图像逆向拆解为可编辑的图层结构,解决了AI生成图像难以二次编辑的痛点。
2025-12-15 14:06:51
917
原创 推理快30%,性能超过千亿参数模型,15B模型Apriel-1.6重新定义端侧推理
Apriel-1.6-15b-Thinker以150亿参数的轻量级体量,在多模态推理能力上击败了体量大其十倍的对手,并将推理Token的消耗量降低了30%以上,精准卡位企业级应用的高效甜蜜点。ServiceNow人工智能团队最新发布的Apriel-1.6-15b-Thinker,作为Apriel SLM(小型语言模型)系列的最新力作,在文本与视觉推理的深度上实现了质的飞跃。这款模型在NVIDIA DGX Cloud(英伟达DGX云)平台上,依托GB200训练而成。
2025-12-12 13:24:48
905
原创 南京大学开源SteadyDancer模型实现完美动作迁移,首帧保留彻底解决身份漂移难题
南京大学、腾讯PCG与上海人工智能实验室联合推出了SteadyDancer。SteadyDancer是首个基于Image-to-Video范式并严格实现首帧保留的开源人像动画框架,彻底解决了传统方法中的身份漂移难题。SteadyDancer并没有选择在拥挤的Reference-to-Video赛道上修修补补,而是另辟蹊径,利用严格的首帧保留机制,攻克了外观保真度与运动控制难以兼得的死结。这是一套关于如何在时空错位中寻找秩序的完整方法论。
2025-12-12 13:21:06
954
原创 不用AI将被淘汰!OpenAI发布2025企业AI现状报告,揭示先锋与跟随者之间的鸿沟正在极速拉大
企业AI正在重塑全球商业流与组织架构。AI不再仅仅是一个供人消遣的聊天窗口,它已成为重塑全球经济复杂工作流的隐形引擎。12月8日,OpenAI发布的这份2025年报告基于其百万级企业客户的真实使用数据,揭示了一个决定性的转变。企业对AI的使用量呈现爆发式增长,消息量激增8倍,API推理消耗增长了320倍。商业世界已跨越了单纯的实验阶段,迈向了将智能深度嵌入核心业务的实战期。与此同时,能够熟练驾驭高级推理与编程工具的先锋用户正在与普通用户之间划开一道巨大的效率鸿沟。
2025-12-12 13:16:37
913
原创 智谱重磅三箭齐发:从看懂世界到操作手机,千亿模型上云、手机智能体入袋、语音输入重构
智谱发布并开源具备原生工具调用能力的GLM-4.6V多模态模型系列,同步开源让手机自动驾驶的AutoGLM,并上线基于SOTA语音模型的桌面端输入法。此次发布的GLM-4.6V系列包含两个版本,106B参数的各种高算力场景基座模型,以及9B参数的端侧轻量化模型,训练上下文长度扩展至128k。在视觉理解精度上达到同参数规模SOTA,并首次在模型架构中将工具调用能力原生融入视觉模型。
2025-12-11 17:22:42
979
原创 斯坦福登上NeurIPS 2025的ReCAP架构,重塑AI长程规划,让智能体在复杂环境中游刃有余
斯坦福大学与MIT的研究团队在NeurIPS 2025上提出ReCAP(Recursive Context-Aware Reasoning and Planning,递归上下文感知推理与规划)。它通过在共享上下文中进行递归推理和规划,让大模型能够像人类一样,在坚持总体目标的同时,灵活应对执行中的变数。ReCAP利用递归上下文感知与结构化回溯机制,在共享的滑动窗口中动态维护层级计划,解决了大模型在长链路任务中容易走神和遗忘的根本难题。智能的核心特征之一,是在高层抽象推理与低层具体执行之间平滑过渡。
2025-12-11 17:20:21
557
原创 Manus与LangChain智能体实战经验!DeepMind工程师的上下文工程哲学
随着大模型能力的边界不断拓展,我们构建智能体的方式正在经历一场静悄悄却剧烈的范式转移,核心不再是堆砌更复杂的提示词,而是学会如何优雅地让路。Google DeepMind 工程师 Philipp Schmid,总结了 Manus 创始人 Peak Ji,LangChain 的工程师 Lance Martin 的实战经验,以及最新的行业研究,深度剖析了上下文工程(Context Engineering)的核心逻辑。
2025-12-11 17:16:27
627
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅