这份完整版的《大语言模型》已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费
】
👉 福利来袭
CSDN大礼包:《2025最全AI大模型学习资源包》免费分享,安全可点 👈
本书主要面向希望系统学习大语言模型技术的读者,将重点突出核心概念与
算法,并且配以示例与代码(伪代码)帮助读者理解特定算法的实现逻辑。由于大
语言模型技术的快速更迭,本书无法覆盖所有相关内容,旨在梳理最具代表性的
基础知识内容,帮助读者更好地了解大语言模型技术的核心知识点,能够快速上
手相关的科研与工程项目。为了配合本书的阅读与使用,我们创建了一个GitHub
项目网站,该网站收集了关于大语言模型的相关资源,链接为https://github.
com/RUCAIBox/LLMSurvey。
本书共设置了五个主要部分,分别是背景与基础知识部分、预训练部分、微
调与对齐部分、大模型使用部分以及评测与应用部分,按照如下的内容组织进行
设置:
• 背景与基础知识部分. 第2 章将首先介绍大语言模型的构建过程,随后介绍
大语言模型相关的背景知识以及重要概念,包括涌现能力、扩展定律以及二者之
间的联系与区别;进一步介绍GPT 系列模型的发展历程以及各个阶段的重要技术
创新,从而能够更好地了解大语言模型的技术升级历史。第3 章将介绍目前大语
言模型相关的资源信息,包括公开可用的模型检查点与API 、数据集合以及代码
工具库,为读者梳理与汇总相关资源。
131.5 本书的内容组织
• 预训练部分. 第4 章将主要介绍预训练数据的准备工作,主要包括数据的收
集、清洗以及词元化方法,随后将介绍数据课程的设计方法。第5 章将主要介绍
大语言模型的架构,主要包括Transformer 模型、各种组件的详细配置、长文本建
模以及一些新型的模型架构。第6 章将主要介绍预训练过程所涉及到的预训练任
务、优化参数设置、可扩展的训练技术以及参数量计算与效率分析方法,并通过
相关实战代码进行讲解。
• 微调与对齐部分. 第7 章将主要介绍指令微调所涉及的数据构建、优化策
略;进一步将介绍典型的轻量化微调技术,减少模型训练的开销;并且通过实践
示例介绍指令微调的具体流程。第8 章将主要介绍大模型的人类对齐技术,将以
RLHF 为主要方法进行详细介绍,并且进一步介绍非强化学习的对齐方法,最后
探讨SFT 与RLHF 之间的关系。
• 大模型使用部分. 第9 章将主要介绍大模型的解码与部署方法,包括解码策
略、解码加速算法、低资源部署策略以及其他模型压缩方法。第10 章将主要介绍
面向大语言模型的提示学习技术,包括基础的提示学习设计方法、上下文学习方
法以及思维链方法等。第11 章将主要介绍面向复杂任务的规划技术,探索如何将
复杂任务进行有效分解,并通过回溯、反思等关键技术形成有效的解决方案;进
一步,将介绍如何构建基于大语言模型的智能体以及多智能体系统。
• 评测与应用部分. 第12 章将主要介绍面向大语言模型性能的评测方法,针
对不同的能力维度介绍相关的评测集合、评测指标以及评测方法,并且指出大语
言模型目前存在的问题。第13 章将主要介绍大语言模型的应用情况,具体将分别
从代表性的研究领域以及应用领域两个维度展开讨论,我们将以代表性工作为驱
动,使得读者能够了解如何将大语言模型进行领域特化以及任务特化。
最后,第14 章将对于全文的内容进行总结,进一步梳理目前每个部分存在的
技术挑战以及研究趋势。
目录
本书内容截图
这份完整版的《大语言模型》已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费
】