【深度强化学习 DRL 快速实践】异步优势演员评论员算法 (A3C)

在这里插入图片描述

Asynchronous Advantage Actor-Critic A3C (2016, DeepMind)

异步优势演员评论员算法 (A3C): 继承 actor-critic 的优势,同时通过异步多线程 (团队作战) 加速了训练过程

  • model-free, on-policy, actor-critic, stochastic 策略
核心改进点说明
采用 Value function (传承 A2C)用期望值替代 policy gradient 里面的真实采样值 R t R_t Rt,使得训练更平稳
优势函数 – Advantage通过计算 A ( s t , a t ) = Q ( s t , a t ) − V ( s t ) = r t + γ V ( s t , a t ) − V ( s t ) A(s_t, a_t) = Q(s_t, a_t) - V(s_t) = r_t + \gamma V(s_t, a_t) - V(s_t) A(st,at)=Q(st,at)V(st)=rt+γV(st,at)V(st) 来减小策略梯度的方差
异步并行训练 – Asynchronous (无经验回放)通过多个异步 agent 并行采样,打破数据相关性,提升训练效率 ; 并异步更新共享的全局网络,减少了训练过程中的延迟和等待
熵正则化项(Entropy Regularization)引入熵正则项 H ( π ) H(\pi) H(π),鼓励策略网络保持多样性,增强探索性,避免过早收敛到局部最优

A3C 网络更新

Critic 网络更新: θ v \theta^v θv

Critic 通过最小化价值函数的损失来学习 (不熟悉 TD 的先看专栏下对应的那篇~):

L value = ( r t + γ V ( s t + 1 ) − V ( s t ) ) 2 L_{\text{value}} = ( r_t + \gamma V(s_{t+1})- V(s_t))^2 Lvalue=(rt+γV(st+1)V(st))2

Actor 网络更新: θ μ \theta^\mu θμ

Actor 通过最大化期望回报来更新,使用 Advantage 来减少 PG 的方差 (不熟悉 policy gradient 的先看专栏下对应的那篇~):

L policy = − log ⁡ π ( a t ∣ s t ) A ( s t , a t ) L_{\text{policy}} = - \log \pi(a_t | s_t) A(s_t, a_t) Lpolicy=logπ(atst)A(st,at)

其中 Advantage A ( s t , a t ) A(s_t, a_t) A(st,at) 可以估计为:

A ( s t , a t ) = r t + γ V ( s t + 1 ) − V ( s t ) A(s_t, a_t) = r_t + \gamma V(s_{t+1})- V(s_t) A(st,at)=rt+γV(st+1)V(st)

总的损失函数

通常,A3C 的总损失函数包含三部分:

  • 策略损失(Policy Loss)
  • 价值损失(Value Loss)
  • 熵正则化项(Entropy Loss,用来增加探索性)

完整的目标函数为:

L = L policy + c 1 L value − c 2 H ( π ( s t ) ) L = L_{\text{policy}} + c_1 L_{\text{value}} - c_2 H(\pi(s_t)) L=Lpolicy+c1Lvaluec2H(π(st))

其中:

  • H ( π ) H(\pi) H(π) 是策略的熵,鼓励策略探索
  • c 1 , c 2 c_1, c_2 c1,c2 是权重系数

参考资料:A3C详解

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值