大模型微调的几种方式

大模型微调有全量微调FFT,和部分微调PEFT。

那么从训练数据的来源,以及训练的方法的角度,大模型微调有以下几个技术路线。

监督式微调SFT

第一个是监督式微调SFT(Superivised Fine Tuning),这个方法主要是用人工标注的数据,用传统机器学习中监督学习的方法,对大模型进行微调。

人类反馈的强化学习RLHF

第二个是基于人类反馈的强化学习微调RLHF(Reinforcement Learning with Human Feedback)这个方法的主要特点是把人类的反馈,通过强化学习的方式,引入到大模型的微调中去。让大模型生成的结果,更加符合人类的一些期望。

AI反馈的强化学习微调RLAIF

第三个是基于AI反馈的强化学习微调RLAIF(Reinforcement Learing with AI Feedback),这个原理大致跟RLHF类似,但是反馈的来源是AI。

这里是想解决反馈效率的问题,因为收集人类反馈,相对来说成本会比较高、效率比较低。

最终目的是效果最好

不同分类的角度,侧重点不一样,对同一个大模型微调,也不局限于某一个方案,可以多个方案一起。

微调的最终目的,是能够在可控成本的前提下,尽可能地提升大模型在特定领域的能力。

读者福利:如果大家对大模型感兴趣,这套大模型学习资料一定对你有用

对于0基础小白入门:

如果你是零基础小白,想快速入门大模型是可以考虑的。

一方面是学习时间相对较短,学习内容更全面更集中。
二方面是可以根据这些资料规划好学习计划和方向。

包括:大模型学习线路汇总、学习阶段,大模型实战案例,大模型学习视频,人工智能、机器学习、大模型书籍PDF。带你从零基础系统性的学好大模型!

😝有需要的小伙伴,可以保存图片到wx扫描二v码

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值