我把大语言模型的所有核心模块,整理成了一张“可复用的技术地图”

Qwen3-VL-8B

Qwen3-VL-8B

图文对话
Qwen3-VL

Qwen3-VL是迄今为止 Qwen 系列中最强大的视觉-语言模型,这一代在各个方面都进行了全面升级:更优秀的文本理解和生成、更深入的视觉感知和推理、扩展的上下文长度、增强的空间和视频动态理解能力,以及更强的代理交互能力

📚 项目推荐:notes-on-llms
我在系统整理大语言模型(LLM)相关知识的过程中,长期维护了一个公开文档仓库 notes-on-llms。
这个项目不是零散的论文笔记或 Prompt 技巧合集,而是从 模型原理 → 训练范式 → 推理优化 → Agent 架构 → 安全与对齐 → 多模态,系统性拆解 LLM 技术栈,构建一份 结构化的认知地图。
如果你已经接触过 LLM,希望从“会用模型”进阶到“理解模型系统”,这个仓库会更有参考价值。
🔗 项目地址:
https://likebeans.github.io/notes-on-llms/
⭐ 欢迎 Star / Follow,后续会持续更新。

RAG、Agent、Prompt、微调、多模态、MCP……
你都听过,但真的在同一个系统里想清楚过吗?

这是我最近反复思考的一个问题。


一、为什么学了这么多 LLM,还是“散的”?

很多人学大语言模型都会卡在同一个阶段:

  • RAG 知道怎么搭,但一换场景就乱
  • Agent 试过 ReAct,却不知道边界在哪
  • Prompt 调得出效果,但不可复现
  • 微调、RLHF、LoRA 都听过,但说不清系统关系

问题不是不努力,而是缺一张“整体技术地图”。

不是教程的问题,是结构的问题


二、我为什么做了 notes-on-llms 这个仓库?

在这里插入图片描述

在系统学习和工程实践 LLM 的过程中,我逐渐意识到:

真正重要的不是“某个技巧”,
而是 LLM 各个模块在系统中的位置、职责和连接方式

所以我开始做一件事:

👉 按“技术栈”的方式,把 LLM 拆开、再重新组织起来。

这个过程,逐渐形成了一个公开仓库:

notes-on-llms
🔗 https://likebeans.github.io/notes-on-llms/

它不是零散笔记,而是一套 可反复使用的 LLM 认知框架


三、这个仓库是怎么组织的?(重点)

notes-on-llms 的核心思想只有一个:

把大语言模型,当成一个完整系统来理解。

所以我按真实技术栈拆成了这些模块:

🔹 RAG(检索增强生成)

  • 离线索引 vs 在线检索
  • Naive → Advanced → Agentic RAG
  • Query 改写 / 多路召回 / Rerank / 评估

👉 直接对应真实知识库系统的演进路径。


🔹 Agent(从对话到行动)

我在文档里用一个公式定义 Agent:

Agent = LLM + Planning + Memory + Tools

并分别拆解:

  • CoT / ToT / ReAct 等规划范式
  • 长短期记忆的系统设计
  • Tool / Function Calling 的边界

👉 不是“玩法合集”,而是 Agent 架构说明书


🔹 训练与微调(真正的大模型系统)

  • Base / Instruct / Chat 模型的训练分工
  • SFT / RLHF / 对齐税
  • 现代 Transformer 的关键工程改良
  • 数据工程与并行训练策略

👉 更偏 工程与系统视角,而不是公式推导。


🔹 Prompt Engineering(不是玄学)

  • In-Context Learning 的机制
  • CoT / ToT / 自洽性
  • 结构化提示与自动提示工程(APE)

👉 把 Prompt 当作 上下文工程 来理解。


🔹 多模态(下一阶段的核心能力)

  • ViT / CLIP / Q-Former
  • 连接器 vs 原生多模态模型
  • 多模态统一架构的趋势

🔹 MCP(你可能低估的新范式)

我在仓库里把 MCP 类比成:

AI 时代的 USB-C 接口

它试图解决:

  • Agent 与工具之间的碎片化集成问题
  • 把 M×N 的集成复杂度降为 M+N

👉 非常值得提前理解。


四、这个仓库到底适合谁?

如果你符合下面任意一条,我会非常推荐你看看:

  • 已经学过 LLM,但始终缺整体感
  • 在做 RAG / Agent / 应用落地
  • 想从“会用模型”进阶到“理解系统”
  • 准备面试 / 架构设计 / 技术升级

如果你是完全零基础,它可能不是最快的入门材料;
但如果你已经走了一段路,它会帮你把碎片拼起来


五、怎么使用 notes-on-llms?

我给了一个很实用的路径建议:

  • 👉 想落地:先看 RAG → Agent
  • 👉 想变强:补 训练 & 推理系统
  • 👉 想稳输出:精读 Prompt 模块
  • 👉 想前沿:关注 多模态 / MCP

它更像一本 长期参考手册,而不是一次性教程。


六、最后

这个仓库我会持续更新,它也已经和我的技术博客形成联动:

  • 博客:更易读、偏讲解
  • 仓库:更系统、偏结构化

📚 项目地址:
👉 https://github.com/likebeans/notes-on-llms
👉 https://likebeans.github.io/notes-on-llms/

如果你觉得这套整理方式对你有帮助,
欢迎 Star / 收藏,后续内容也会持续完善。


如果你也觉得 LLM 内容太碎,希望有一张真正的“技术地图”,
这个仓库可能正是你在找的那一份。

您可能感兴趣的与本文相关的镜像

Qwen3-VL-8B

Qwen3-VL-8B

图文对话
Qwen3-VL

Qwen3-VL是迄今为止 Qwen 系列中最强大的视觉-语言模型,这一代在各个方面都进行了全面升级:更优秀的文本理解和生成、更深入的视觉感知和推理、扩展的上下文长度、增强的空间和视频动态理解能力,以及更强的代理交互能力

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

炼丹上岸

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值