【计算机视觉】关于`partial cross entropy loss`用于弱监督语义分割中的说明

本文介绍了弱监督语义分割中使用partial cross entropy loss的问题及改进方法。在弱监督标签下,仅部分前景被标注,导致模型倾向于将更多像素预测为背景。为解决此问题,提出一种新的训练策略,当图像有前景标注时计算partial cross entropy loss,无标注时则施加背景约束,以提供背景监督,防止前景过度扩散。文章还讨论了该方法的适用条件和其他弱监督语义分割技术。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

【计算机视觉】关于partial cross entropy loss用于弱监督语义分割中的说明

弱监督标签

以两类别语义分割为例,背景和前景,给定的弱监督标签是只对前景个一小部分进行了标注。这个只是直接拿这个弱监督标签进行训练,会有一定的问题,因为大部分的前景标签都没有标注出来,所以前景类别会受到较大的抑制。

GT标签:在这里插入图片描述

Weak标签:在这里插入图片描述

采用 partial cross entropy loss

意思是只在有标注的像素上计算cross entropy loss。前景目标为1,那么对应的 loss=-∑t_i*log(p_i), i 为像素索引, t_i<

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

Zhang_P_Y

感谢支持

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值