Paper简读 - ChatGPT相关的GPT-1、GPT-2、GPT-3

本文介绍了GPT、GPT-2和GPT-3的发展历程,从2018年的GPT开始,阐述了它们在自然语言处理中的应用,如预训练、多任务学习和少样本学习。GPT-3拥有1750亿个参数,展示了强大的文本生成和理解能力,但存在模型解释性和样本有效性的局限性。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

欢迎关注我的CSDN:https://spike.blog.csdn.net/
本文地址:https://blog.csdn.net/caroline_wendy/article/details/128909400

GPT、GPT-2、GPT-3:Generative Pre-trained Transformer,生成式预训练Transformer

  • Wiki: https://en.wikipedia.org/wiki/GPT-3

  • GPT-3 Demo: https://gpt3demo.com/

时间线:

  1. Transformer, 2017.6, Attention is all you need
  2. GPT, 2018.6, Improving Language Understanding by Generative Pre-Training: 使用Transformer的解码器,在没有标签的文本上,预训练模型
  3. BERT, 2018.10, B
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

ManonLegrand

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值