Python
Java
PHP
IOS
Android
Nodejs
JavaScript
Html5
Windows
Ubuntu
Linux
Keras 中的自定义损失函数应该为批次返回单个损失值,还是为训练批次中的每个样本返回一系列损失?
我正在学习tensorflow 2 3 中的keras API 在这个guide https www tensorflow org guide keras train and evaluate custom losses在tensorflo
tensorflow
machinelearning
Keras
tensorflow20
lossfunction
keras中的加权mse自定义损失函数
我正在处理时间序列数据 输出未来 60 天的预测数据 我目前使用均方误差作为我的损失函数 结果很糟糕 我想实现一个加权均方误差 使得早期的输出比后来的输出重要得多 加权均方根公式 因此 我需要某种方法来使用索引迭代张量的元素 因为我需要同时
python
tensorflow
Keras
lossfunction
Keras中的自定义损失函数,如何处理占位符
我正在尝试在 TF Keras 中生成自定义损失函数 如果损失函数在会话中运行并传递常量 则该损失函数可以工作 但是 当编译到 Keras 中时 它会停止工作 成本函数 感谢 Lior 将其转换为 TF def ginicTF actual
python3x
tensorflow
Keras
lossfunction
gini
TensorFlow 2 自定义损失:“没有为任何变量提供梯度”错误
我有一个图像分割问题必须在 TensorFlow 2 中解决 特别是 我有一个由航空图像及其各自的掩模配对组成的训练集 在蒙版中 地形为黑色 建筑物为白色 目的是预测测试集中图像的掩模 我使用带有最终 Conv2DTranspose 的 U
python
tensorflow
imagesegmentation
tensorflow20
lossfunction
Tensorflow,Tensorflow的sparse_categorical_crossentropy中from_logits = True或False是什么意思?
在张量流2 0中 有一个损失函数叫做 tf keras losses sparse categorical crossentropy labels targets from logits False 请问设置 from logits Tru
tensorflow
lossfunction
crossentropy
Keras 中的自定义损失与 softmax 到 one-hot
我有一个输出 Softmax 的模型 我想开发一个自定义损失函数 期望的行为是 1 Softmax 为 one hot 通常我会执行 numpy argmax softmax vector 并将空向量中的索引设置为 1 但这在损失函数中是不
tensorflow
Keras
NLP
lossfunction
torch.nn.CrossEntropyLoss 多个批次
我目前正在与torch nn CrossEntropyLoss 据我所知 批量计算损失是很常见的 但是 是否有可能计算多个批次的损失 更具体地说 假设我们给出了数据 import torch features torch randn no
Pytorch
lossfunction
crossentropy
pytorchdataloader
如何在 Keras 中使用 categorical_hinge?
也许是一个非常愚蠢的问题 但我找不到如何在 Keras 中使用 categorical hinge 的示例 我进行分类 我的目标是shape 1 值为 1 0 1 所以我有 3 个类别 使用函数式 API 我设置了输出层 如下所示 输出 密
Keras
keras2
lossfunction
activationfunction
不使用keras后端库的自定义损失函数
我正在将 ML 模型应用于实验设置以优化驱动信号 驱动信号本身是被优化的东西 但它的质量是间接评估的 它被应用于实验装置以产生不同的信号 我能够通过 python 中的函数运行实验并收集数据 我想设置一个带有自定义损失函数的 ML 模型 该
python
tensorflow
machinelearning
Keras
lossfunction
Keras 序列模型中使用哪种损失函数
我使用的是 Keras 序列模型 预测输出的形状为 1 5 5 个特征 我有一个准确度指标定义如下 对于 N 个预测 模型的准确性将是预测样本的百分比 使得 对于每个预测及其各自的真实标签 所有特征的差异不超过 10 例如 如果y i 1
python
tensorflow
Keras
neuralnetwork
lossfunction
Keras 中损失函数的导数
我想在 keras 中创建以下损失函数 Loss mse double derivative y pred x train 我无法合并衍生术语 我努力了K gradients K gradients y pred x train x tra
python
machinelearning
neuralnetwork
Keras
lossfunction
Keras 模型评估中的损失
我正在使用 Keras 进行二元分类loss binary crossentropy optimizer tf keras optimizers Adam最后一层是keras layers Dense 1 activation tf nn
machinelearning
Keras
lossfunction
多任务模型的自定义损失
我正在微调 keras 模型 该模型为 3 个子任务输出 3 个不同的预测 模型输出是一个列表 out batch size 5 batch size 6 batch size 6 我只想计算第三个输出的分类交叉熵损失 所以我定义了一个简单
tensorflow
Keras
lossfunction
当我在tensorflow.keras中使用BinaryCrossentropy(from_logits=True)时,我应该使用什么作为目标向量
我有一个多标签分类 其中每个目标都是由 1 和 0 组成的向量not相互排斥 为了清楚起见 我的目标是 0 1 0 0 1 1 到目前为止我的理解是 我应该使用二元交叉熵函数 正如本节中所解释的answer 另外 我明白了tf keras
python
tensorflow
machinelearning
Keras
lossfunction
Keras 不平衡数据集的多重损失
My Model 我建立了一个暹罗网络 它有两个输入和三个输出 所以我的损失函数是 total loss alpha loss1 alpah loss2 1 alpah loss3 loss1 and loss2 is categorica
python
Keras
lossfunction
经过一段时间的训练后,训练损失值正在增加,但模型检测物体的效果相当好
我在训练 CNN 从我自己的数据集中检测对象时遇到了一个奇怪的问题 我正在使用迁移学习 并且在训练开始时 损失值正在下降 如预期 但过了一段时间 它变得越来越高 我不知道为什么会发生这种情况 与此同时 当我看着Images使用 Tensor
tensorflow
objectdetection
lossfunction
焦点损失实施
In the paper引入焦点损失后 他们指出损失函数的公式如下 Where 我在另一位作者的 Github 页面上找到了它的实现 他在自己的项目中使用了它paper 我在我拥有的分割问题数据集上尝试了该函数 它似乎工作得很好 下面是实现
neuralnetwork
Pytorch
convneuralnetwork
Probability
lossfunction
实施二元交叉熵损失给出了与 Tensorflow 不同的答案
我正在实施二元交叉熵Raw python 的损失函数 但它给了我一个与 Tensorflow 非常不同的答案 这是我从 Tensorflow 得到的答案 import numpy as np from tensorflow keras lo
python
tensorflow
Keras
lossfunction
keras 将两种损失与可调权重结合起来
所以这里是详细描述 我有一个 keras 功能模型 有两层 输出为 x1 和 x2 x1 Dense 1 activation relu prev inp1 x2 Dense 2 activation relu prev inp2 我需要使
tensorflow
deeplearning
Keras
backpropagation
lossfunction
为什么我在 TensorFlow Keras 中的损失函数和指标之间得到不同的值?
在使用 TensorFlow 进行 CNN 训练时 我使用Keras losses poisson作为损失函数 现在 我喜欢与损失函数一起计算许多指标 并且我观察到Keras metrics poisson给出不同的结果 尽管两者是相同的函
tensorflow
Keras
lossfunction
«
1
2
3
»