torch.nn.NLLLOSS vs torch.nn.CrossEntropyLoss
2023-12-14 22:39:41
通常用于深度学习中计算预测值与真实标签的损失 。
torch.nn.CrossEntropyLoss相当于softmax + log + nllloss
torch.nn.NLLLOSS示例
nllloss = nn.NLLLoss()
predict = torch.Tensor([[2, 3, 1],
[6, 9, 8]])
predict = torch.log(torch.softmax(predict, dim=-1))
label = torch.tensor([1, 2])
nllloss(predict, label)
softmax:? ? ? ? ? ? ? ? ? ? ?tensor([[0.2447, 0.6652, 0.0900],? ? ? ? #每行之和为0
? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ?[0.0351, 0.7054, 0.2595]])
softmax+log:? ? ? ? ? ? ? tensor([[-1.4076, -0.4076, -2.4076],? ? #对应位置求对数ln
? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ?[-3.3490, -0.3490, -1.3490]])
softmax+log+nllloss:? 0.8783090710639954? ? ? ? ? ? ? ? ? ?#依据给出的label(0.4076+0.1291)/2
torch.nn.CrossEntropyLoss
from torch import nn
import torch
cross_loss = nn.CrossEntropyLoss()
predict = torch.Tensor([[2, 3, 1],
[6, 9, 8]])
label = torch.tensor([1, 2])
cross_loss(predict, label)
?
文章来源:https://blog.csdn.net/qq_46458188/article/details/135004832
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。 如若内容造成侵权/违法违规/事实不符,请联系我的编程经验分享网邮箱:veading@qq.com进行投诉反馈,一经查实,立即删除!
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。 如若内容造成侵权/违法违规/事实不符,请联系我的编程经验分享网邮箱:veading@qq.com进行投诉反馈,一经查实,立即删除!