《reinforcement learning:an introduction》第十三章《Policy Gradient Methods》总结

本文介绍了强化学习中策略梯度方法的基本原理及其优势与局限性。包括REINFORCE算法、Actor-Critic方法等,并讨论了如何通过使用基线、优势函数等技巧减少算法的方差。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

由于组里新同学进来,需要带着他入门RL,选择从silver的课程开始。

对于我自己,增加一个仔细阅读《reinforcement learning:an introduction》的要求。

因为之前读的不太认真,这一次希望可以认真一点,将对应的知识点也做一个简单总结。


13.1 Policy Approximation and its Advantages . . . . . . . . . . . . . . . . 266
13.2 The Policy Gradient Theorem . . . . . . . . . . . . . . . . . . . . . . . 268
13.3 REINFORCE: Monte Carlo Policy Gradient . . . . . . . . . . . . . . . 270
13.4 REINFORCE with Baseline . . . . . . . . . . . . . . . . . . . . . . . . 272
13.5 Actor-Critic Methods . . . . . . . . . . . . . . . . . . . . . . . . . . . 273
13.6 Policy Gradient for Continuing Problems (Average Reward Rate) . . . 275
13.7 Policy Parameterization for Continuous Actions . . . . . . . . . . . . . 278




learn a parameterized policythat can select actions  directly;A value function may still be used tolearnthe policy weights, but is not required for action selection. 




Policy Gradient Methods方法的优缺点:

1)the policy may be a simpler function to approximate than value-function

2)Action-value methods have no natural way of finding stochastic optimal policies, whereas policy approximating methods can

3)policy parameterization is sometimes a good way of injecting prior knowledge

Better convergence properties(步长足够小,policy gradient保证不断优化policy,相应的,往往陷入local optimum)
Effective in high-dimensional or continuous action spaces(Q需要max over action)
Can learn stochastic policies(max Q over action可以近似看做是deterministic policy)

Disadvantages:
Typically converge to a local rather than globa

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值