NLP(四十七)常见的损失函数

本文详细介绍了NLP任务中常用的损失函数,包括MeanSquaredError、MeanAbsoluteError、BinaryCrossEntropy、CategoricalCrossEntropy和SparseCategoricalCrossEntropy,并通过Keras和PyTorch提供了实现示例。对比了两种框架在实现这些损失函数时的差异,特别是PyTorch中对于CrossEntropyLoss的处理方式。此外,还探讨了HingeLoss在分类问题中的应用。

  本文将给出NLP任务中一些常见的损失函数(Loss Function),并使用Keras、PyTorch给出具体例子。
  在讲解具体的损失函数之前,我们有必要了解下什么是损失函数。所谓损失函数,指的是衡量模型预测值y真实标签Y之间的差距的函数。本文将介绍的损失函数如下:

  • Mean Squared Error(均方差损失函数)
  • Mean Absolute Error(绝对值损失函数)
  • Binary Cross Entropy(二元交叉熵损失函数)
  • Categorical Cross Entropy(多分类交叉熵损失函数)
  • Sparse Categorical Cross Entropy(稀疏多分类交叉熵损失函数)
  • Hingle Loss(合页损失函数)

  以下将分别介绍上述损失函数,并介绍Keras和PyTorch中的例子。在此之前,我们分别导入Keras所需模块和PyTorch所需模块。Keras所需模块如下:
导入Keras相关模块
PyTorch所需模块如下:
PyTorch所需模块
从导入模块来看,PyTorch更加简洁,在后面的部分中我们将持续比较这两种框架的差异。

Mean Squared Error

  Mean Squared Error(MSE)为均方差损失函数,一般用于回归问题。我们用 y ~ i \widetilde{y}_{i} y i表示样本预测值序列 { y ~ 1 , y ~ 2 , . . . , y ~ n } \{\widetilde{y}_{1}, \widetilde{y}_{2},...,\widetilde{y}_{n}\} { y 1,y 2,...,y n}中的第i个元素,用 y i y_{i} yi表示样本真实值序列 { y 1 , y 2 , . . . , y n } \{y_{1}, y_{2},...,y_{n}\} { y1,y2,...,yn}中的第i个元素,则均方差损失函数MSE的计算公式如下:

M S E = 1 n ∑ i = 1 n ( y ~ i − y i ) 2 MSE=\frac{1}{n}\sum_{i=1}^n(\widetilde{y}_{i}-y_{i})^{2} MSE=n

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值