Python
Java
PHP
IOS
Android
Nodejs
JavaScript
Html5
Windows
Ubuntu
Linux
验证 Transformer 中多头注意力的实现
我已经实施了MultiAttention head in Transformers 周围有太多的实现 所以很混乱 有人可以验证我的实施是否正确 DotProductAttention 引用自 https www tensorflow org
tensorflow
Keras
deeplearning
NLP
LSTM
CNTK 抱怨 LSTM 中的动态轴
我正在尝试在 CNTK 中实现 LSTM 使用 Python 来对序列进行分类 Input 特征是固定长度的数字序列 时间序列 标签是 one hot 值的向量 Network input input variable input dim
python
LSTM
cntk
将 Dropout 与 Keras 和 LSTM/GRU 单元结合使用
在 Keras 中 您可以像这样指定 dropout 层 model add Dropout 0 5 但对于 GRU 单元 您可以将 dropout 指定为构造函数中的参数 model add GRU units 512 return se
Keras
LSTM
dropout
将 Pytorch LSTM 的状态参数转换为 Keras LSTM
我试图将现有的经过训练的 PyTorch 模型移植到 Keras 中 在移植过程中 我陷入了LSTM层 LSTM 网络的 Keras 实现似乎具有三种状态类型的状态矩阵 而 Pytorch 实现则具有四种状态矩阵 例如 对于hidden l
Keras
LSTM
Pytorch
为什么不使用均方误差来解决分类问题?
我正在尝试使用 LSTM 解决一个简单的二元分类问题 我正在尝试找出网络的正确损失函数 问题是 当我使用二元交叉熵作为损失函数时 与使用均方误差 MSE 函数相比 训练和测试的损失值相对较高 经过研究 我发现二元交叉熵应该用于分类问题 MS
python
Keras
LSTM
crossentropy
meansquareerror
Caffe 的 LSTM 模块
有谁知道 Caffe 是否有一个不错的 LSTM 模块 我从 russel91 的 github 帐户中找到了一个 但显然包含示例和解释的网页消失了 以前是http apollo deepmatter io http apollo deep
neuralnetwork
deeplearning
caffe
LSTM
recurrentneuralnetwork
LSTM 批次与时间步
我按照 TensorFlow RNN 教程创建了 LSTM 模型 然而 在这个过程中 我对 批次 和 时间步长 之间的差异 如果有的话 感到困惑 并且我希望得到帮助来澄清这个问题 教程代码 见下文 本质上是根据指定数量的步骤创建 批次 wi
machinelearning
tensorflow
LSTM
在 Tensorflow 2.0 中的简单 LSTM 层之上添加 Attention
我有一个由一个 LSTM 和两个 Dense 层组成的简单网络 如下所示 model tf keras Sequential model add layers LSTM 20 input shape train X shape 1 trai
python
tensorflow
Keras
LSTM
attentionmodel
Keras LSTM 密集层多维输入
我正在尝试创建一个 keras LSTM 来预测时间序列 我的 x train 形状像 3000 15 10 示例 时间步长 特征 y train 形状像 3000 15 1 我正在尝试构建一个多对多模型 每个序列 10 个输入特征产生 1
python
multidimensionalarray
Keras
LSTM
Tensorflow 的 LSTM 输入
I m trying to create an LSTM network in Tensorflow and I m lost in terminology basics I have n time series examples so X
python
machinelearning
tensorflow
LSTM
为什么 Keras 的 train_on_batch 在第二个 epoch 产生零损失和准确率?
我正在使用一个大数据集 所以我尝试使用 train on batch 或适合 epoch 1 model Sequential model add LSTM size input shape input shape return seque
python
batchprocessing
trainingdata
Keras
LSTM
如何设置 1dCNN+LSTM 网络(Keras)的输入形状?
我有以下想法要实施 Input gt CNN gt LSTM gt Dense gt Output 输入有 100 个时间步长 每个步长有一个 64 维特征向量 A Conv1D层将在每个时间步提取特征 CNN 层包含 64 个滤波器 每个
python
tensorflow
Keras
LSTM
张量流:简单 LSTM 网络的共享变量错误
我正在尝试构建一个最简单的 LSTM 网络 只是想让它预测序列中的下一个值np input data import tensorflow as tf from tensorflow python ops import rnn cell im
python
tensorflow
neuralnetwork
LSTM
PyTorch LSTM:运行时错误:无效参数 0:张量的大小必须匹配,维度 0 除外。维度 1 为 1219 和 440
我有一个基本的 PyTorch LSTM import torch nn as nn import torch nn functional as F class BaselineLSTM nn Module def init self su
python
Pytorch
LSTM
Keras:嵌入 LSTM
在 LSTM 的 keras 示例中 用于对 IMDB 序列数据进行建模 https github com fchollet keras blob master examples imdb lstm py https github com
Keras
LSTM
Embedding
张量流 LSTM 模型中的 NaN 损失
以下网络代码应该是经典的简单 LSTM 语言模型 一段时间后开始输出 nan 损失 在我的训练集上 这需要几个小时 而且我无法在较小的数据集上轻松复制它 但在认真的训练中 这种情况总是会发生 Sparse softmax with cros
python
tensorflow
LSTM
尝试理解 Pytorch 的 LSTM 实现
我有一个包含 1000 个示例的数据集 其中每个示例都有5特征 a b c d e 我想喂7LSTM 的示例 以便它预测第 8 天的特征 a 阅读 nn LSTM 的 Pytorchs 文档 我得出以下结论 input size 5 hid
machinelearning
deeplearning
LSTM
Pytorch
recurrentneuralnetwork
LSTM 错误:AttributeError:“tuple”对象没有属性“dim”
我有以下代码 import torch import torch nn as nn model nn Sequential nn LSTM 300 300 nn Linear 300 100 nn ReLU nn Linear 300 7
python
Pytorch
LSTM
Tensorflow动态RNN(LSTM):如何格式化输入?
我已获得这种格式的一些数据以及以下详细信息 person1 day1 feature1 feature2 featureN label person1 day2 feature1 feature2 featureN label person
python
tensorflow
LSTM
recurrentneuralnetwork
TFLearn
为什么我的 keras LSTM 模型陷入无限循环?
我正在尝试构建一个小型 LSTM 它可以通过在现有 Python 代码上进行训练来学习编写代码 即使是垃圾代码 我已将数百个文件中的数千行代码连接到一个文件中 每个文件以
python
tensorflow
Keras
neuralnetwork
LSTM
1
2
3
4
5
6
...19
»