常见损失函数 loss function

本文详细介绍了0-1损失函数、绝对值损失、对数损失、平方损失、指数损失、Hinge损失、交叉熵损失以及Focal Loss等常见机器学习中的损失函数,特别强调了Focal Loss在解决样本不平衡问题中的作用和参数调整策略。
部署运行你感兴趣的模型镜像

0-1 损失函数

L(Y,f(x))={1,Y≠f(x)0,Y=f(x)L(Y,f(x))=\left\{ \begin{aligned} &1, && Y \ne f(x) \\ &0, && Y = f(x) \end{aligned} \right.L(Y,f(x))={1,0,Y=f(x)Y=f(x)

绝对值损失函数

L(Y,f(x))=∣Y−f(x)∣L(Y,f(x))=\vert{Y-f(x)}\vertL(Y,f(x))=Yf(x)

对数损失函数

L(Y,f(x))={−Y∗log(f(x)),Y=1−(1−Y)∗log(1−f(x)),Y=0L(Y,f(x))=\left\{ \begin{aligned} &-Y*log(f(x)), && Y = 1 \\ &-(1-Y)*log(1-f(x)), && Y = 0 \end{aligned} \right.L(Y,f(x))={Ylog(f(x)),(1Y)log(1f(x)),Y=1Y=0

平方损失函数

L(Y,f(x))=−ΣN(Y−f(x))2L(Y,f(x))=-\Sigma_N(Y-f(x))^2L(Y,f(x))=ΣN(Yf(x))2

指数损失函数

L(Y,f(x))=exp−Y∗f(x)L(Y,f(x))=exp^{-Y*f(x)}L(Y,f(x))=expYf(x)

Hinge损失函数

L(Y,f(x))=max(0,1−Y∗f(x))L(Y,f(x))=max(0, 1-Y*f(x))L(Y,f(x))=max(0,1Yf(x))

交叉熵损失函数

L(Y,f(x))=−1nΣx[Y∗logf(x)+(1−Y)∗log(1−f(x))]L(Y,f(x))=-\frac1n\Sigma_x{[Y*logf(x)+(1-Y)*log(1-f(x))]}L(Y,f(x))=n1Σx[Ylogf(x)+(1Y)log(1f(x))]

OHEM loss

取 3:1 的负样本去计算loss,之外的负样本损失置为零

Focal loss

在这里插入图片描述

  • 解决样本不平衡的问题

正样本乘以α\alphaα, 负样本乘以1−α1-\alpha1α,默认α\alphaα为0.25,即正样本比负样本占比小【在总体的损失中】

  • 增加因子,更关注困难的,错分的样本【增大损失】,减小易分类样本的损失,γ\gammaγ默认为2

paper中单独做了一个实验,就是直接在CE上加权重,得到的结果是alpha=0.75的时候效果最好,也就是说,正样本的权重为0.75,负样本的权重为0.25,正样本的权重大于负样本,因为本身就是正样本个数远少于负样本。加了gama次方后,alpha取0.25的时候效果最好,也就是说,正样本的权重为0.25,负样本的权重为0.75,这个时候反而负样本的权重在增加,按道理来说,负样本个数这么多,应该占loss主导,这说明gama次方已经把负样本整体的loss衰减到需要加权重的地步。

paper中alpha取0.25,gama取2效果最好

在这里插入图片描述

您可能感兴趣的与本文相关的镜像

GPT-oss:20b

GPT-oss:20b

图文对话
Gpt-oss

GPT OSS 是OpenAI 推出的重量级开放模型,面向强推理、智能体任务以及多样化开发场景

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

NLP_wendi

谢谢您的支持。

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值