0


深度学习中常用的损失函数(一) —— MSELoss()

nn.MSELoss()

    该函数叫做平均平方误差,简称均方误差。它的英文名是mean squared error,该损失函数是挨个元素计算的。该元素的公式如下:

                            ![loss(x_{i},x_{j})=(x_{i}-x_{j})^2](https://latex.csdn.net/eq?loss%28x_%7Bi%7D%2Cx_%7Bj%7D%29%3D%28x_%7Bi%7D-x_%7Bj%7D%29%5E2)

其连个输入参数,第一个参数是输出的参数,第二个参数是与之对比的参数。

   loss= torch.nn.MSELoss(reduce=True, size_average=True)

   1、 如果reduce = False,返回向量形式的 loss 

  2、如果reduce = True, 返回标量形式的loss

   3、如果size_average = True,返回 loss.mean();

  4、如果 size_average = False,返回 loss.sum()

   默认情况下:两个参数都为True.

其代码如下:

import torch
from torch import nn

loss = nn.MSELoss()
input = torch.randn(3, 5, requires_grad=True)
target = torch.randn(3, 5)
output = loss(input, target)
output.backward() # 反向传播
print('Loss: ',output.item())

# Loss:  1.120721459388733
import torch
from torch import nn

loss = nn.MSELoss(size_average=False) # 以向量的形式返回
input = torch.randn(3, 5,requires_grad=True)
target = torch.randn(3, 5)
output = loss(input, target)
output.backward() # 反向传播
print('Loss: ',output)
# Loss:  tensor(35.4082, grad_fn=<MseLossBackward>)

本文转载自: https://blog.csdn.net/weixin_44558721/article/details/127396925
版权归原作者 卡多莫西 所有, 如有侵权,请联系我们删除。

“深度学习中常用的损失函数(一) —— MSELoss()”的评论:

还没有评论