Python
Java
PHP
IOS
Android
Nodejs
JavaScript
Html5
Windows
Ubuntu
Linux
为什么不使用均方误差来解决分类问题?
我正在尝试使用 LSTM 解决一个简单的二元分类问题 我正在尝试找出网络的正确损失函数 问题是 当我使用二元交叉熵作为损失函数时 与使用均方误差 MSE 函数相比 训练和测试的损失值相对较高 经过研究 我发现二元交叉熵应该用于分类问题 MS
python
Keras
LSTM
crossentropy
meansquareerror
softmax_cross_entropy_with_logits和loss.log_loss有什么区别?
之间的主要区别是什么tf nn softmax cross entropy with logits and tf losses log loss 两种方法都接受 1 hot 标签和 logits 来计算分类任务的交叉熵损失 这些方法在理论上
tensorflow
crossentropy
pytorch 中图像分割的通道明智 CrossEntropyLoss
我正在做图像分割任务 总共有 7 个类 所以最终的输出是像 batch 7 height width 这样的张量 它是一个 softmax 输出 现在直觉上我想使用 CrossEntropy 损失 但 pytorch 实现不适用于通道明智的
Pytorch:交叉熵损失中的权重
我试图通过一个实际的例子来理解 CrossEntropyLoss 中的权重是如何工作的 所以我首先运行标准 PyTorch 代码 然后手动运行 但损失并不相同 from torch import nn import torch softma
python
Pytorch
crossentropy
Tensorflow,Tensorflow的sparse_categorical_crossentropy中from_logits = True或False是什么意思?
在张量流2 0中 有一个损失函数叫做 tf keras losses sparse categorical crossentropy labels targets from logits False 请问设置 from logits Tru
tensorflow
lossfunction
crossentropy
torch.nn.CrossEntropyLoss 多个批次
我目前正在与torch nn CrossEntropyLoss 据我所知 批量计算损失是很常见的 但是 是否有可能计算多个批次的损失 更具体地说 假设我们给出了数据 import torch features torch randn no
Pytorch
lossfunction
crossentropy
pytorchdataloader
比较 MSE 损失和交叉熵损失的收敛性
For a very simple classification problem where I have a target vector 0 0 0 0 and a prediction vector 0 0 1 0 2 1 would
TensorFlow 中 sigmoid 后跟交叉熵和 sigmoid_cross_entropy_with_logits 有什么区别?
当尝试使用 sigmoid 激活函数获取交叉熵时 两者之间存在差异 loss1 tf reduce sum p tf log q 1 loss2 tf reduce sum tf nn sigmoid cross entropy with
machinelearning
tensorflow
Classification
crossentropy
Sigmoid
为什么Keras/tensorflow的sigmoid和crossentropy精度低?
我有以下简单的神经网络 仅具有 1 个神经元 来测试计算精度sigmoid激活 binary crossentropy喀拉斯 model Sequential model add Dense 1 input dim 1 activation
python
tensorflow
Keras
Classification
crossentropy
为什么“softmax_cross_entropy_with_logits_v2”反向传播到标签中
我想知道为什么在 Tensorflow 1 5 0 及更高版本中 softmax cross entropy with logits v2默认反向传播到标签和逻辑 您希望在哪些应用程序 场景中反向传播到标签中 我看到下面的 github 问
tensorflow
machinelearning
neuralnetwork
crossentropy
pytorch crossentropy为nan
pytorch crossentropy为nan 交叉熵损失函数的具体为 loss x ln z 1 x ln 1 z z softmax pred x 这样当z为0 0时会出现loss为nan的情况 本人的具体原因 网络中用了MultiH
深度学习基础
Pytorch
深度学习
crossentropy
torch的交叉熵损失函数(cross_entropy)计算(含python代码)
1 调用 首先 torch的交叉熵损失函数调用方式为 torch nn functional cross entropy input target weight None size average None ignore index 100
基本知识
python
Pytorch
交叉熵
crossentropy