Python
Java
PHP
IOS
Android
Nodejs
JavaScript
Html5
Windows
Ubuntu
Linux
张量流:简单 LSTM 网络的共享变量错误
我正在尝试构建一个最简单的 LSTM 网络 只是想让它预测序列中的下一个值np input data import tensorflow as tf from tensorflow python ops import rnn cell im
python
tensorflow
neuralnetwork
LSTM
PyTorch LSTM:运行时错误:无效参数 0:张量的大小必须匹配,维度 0 除外。维度 1 为 1219 和 440
我有一个基本的 PyTorch LSTM import torch nn as nn import torch nn functional as F class BaselineLSTM nn Module def init self su
python
Pytorch
LSTM
Keras:嵌入 LSTM
在 LSTM 的 keras 示例中 用于对 IMDB 序列数据进行建模 https github com fchollet keras blob master examples imdb lstm py https github com
Keras
LSTM
Embedding
张量流 LSTM 模型中的 NaN 损失
以下网络代码应该是经典的简单 LSTM 语言模型 一段时间后开始输出 nan 损失 在我的训练集上 这需要几个小时 而且我无法在较小的数据集上轻松复制它 但在认真的训练中 这种情况总是会发生 Sparse softmax with cros
python
tensorflow
LSTM
尝试理解 Pytorch 的 LSTM 实现
我有一个包含 1000 个示例的数据集 其中每个示例都有5特征 a b c d e 我想喂7LSTM 的示例 以便它预测第 8 天的特征 a 阅读 nn LSTM 的 Pytorchs 文档 我得出以下结论 input size 5 hid
machinelearning
deeplearning
LSTM
Pytorch
recurrentneuralnetwork
LSTM 错误:AttributeError:“tuple”对象没有属性“dim”
我有以下代码 import torch import torch nn as nn model nn Sequential nn LSTM 300 300 nn Linear 300 100 nn ReLU nn Linear 300 7
python
Pytorch
LSTM
Tensorflow动态RNN(LSTM):如何格式化输入?
我已获得这种格式的一些数据以及以下详细信息 person1 day1 feature1 feature2 featureN label person1 day2 feature1 feature2 featureN label person
python
tensorflow
LSTM
recurrentneuralnetwork
TFLearn
为什么我的 keras LSTM 模型陷入无限循环?
我正在尝试构建一个小型 LSTM 它可以通过在现有 Python 代码上进行训练来学习编写代码 即使是垃圾代码 我已将数百个文件中的数千行代码连接到一个文件中 每个文件以
python
tensorflow
Keras
neuralnetwork
LSTM
在 Keras 中使用 Subtract 层
我正在 Keras 中实现所描述的 LSTM 架构here http nlp cs rpi edu paper multilingualmultitask pdf 我认为我已经非常接近了 尽管我在共享层和特定语言层的组合方面仍然存在问题 这
python
machinelearning
Keras
LSTM
keraslayer
将静态数据(不随时间变化)添加到 LSTM 中的序列数据
我正在尝试建立一个如下图所示的模型 请看下图 我想在 LSTM 层中传递序列数据 在另一个前馈神经网络层中传递静态数据 血型 性别 后来我想将它们合并 然而 我对这里的维度感到困惑 如果我的理解是正确的 如图所示 5维序列数据如何与4维静态
machinelearning
Keras
neuralnetwork
Sequence
LSTM
如何获取基于Keras的LSTM模型中每个epoch的一层权重矩阵?
我有一个基于 Keras 的简单 LSTM 模型 X train X test Y train Y test train test split input labels test size 0 2 random state i 10 X t
tensorflow
deeplearning
Keras
LSTM
如何为 keras lstm 输入重塑数据?
我是 Keras 新手 我发现很难理解 LSTM 层输入数据的形状 Keras 文档表示输入数据应该是形状为 nb samples timesteps input dim 的 3D 张量 我有808信号 每个信号有22个通道和2000个数据
python
Keras
signals
LSTM
.fit() 层的 shuffle = 'batch' 参数如何在后台工作?
当我使用以下方法训练模型时 fit 层的参数 shuffle 预设为 True 假设我的数据集有 100 个样本 批量大小为 10 当我设置shuffle True然后 keras 首先随机选择样本 现在 100 个样本具有不同的顺序 根据
Keras
shuffle
LSTM
recurrentneuralnetwork
在 Tensorflow 中检索 LSTM 序列的最后一个值
我有不同长度的序列 想在 Tensorflow 中使用 LSTM 进行分类 对于分类 我只需要每个序列最后一个时间步长的 LSTM 输出 max length 10 n dims 2 layer units 5 input tf place
python
tensorflow
deeplearning
LSTM
无法挤压 dim[1],预期维度为 1,得到 499
我正在尝试制作一个自动编码器 但遇到了上述错误 查看 Stack Exchange 上的其他帖子并没有帮助 这是完整的错误 InvalidArgumentError Can not squeeze dim 1 expected a dime
python
Keras
LSTM
如何使用有状态 LSTM 和 batch_size > 1 布置训练数据
背景 我想在 Keras 中对 有状态 LSTM 进行小批量训练 我的输入训练数据位于一个大矩阵 X 中 其维度为 m x n 其中 m number of subsequences n number of time steps per s
tensorflow
machinelearning
Keras
Theano
LSTM
Tensorflow:如何使用dynamic_rnn从LSTMCell获取中间细胞状态(c)?
默认情况下 函数dynamic rnn仅输出隐藏状态 称为m 对于每个时间点可以通过如下方式获得 cell tf contrib rnn LSTMCell 100 rnn outputs tf nn dynamic rnn cell inp
python
machinelearning
tensorflow
LSTM
recurrentneuralnetwork
Tensorflow将LSTM的最终状态保存在dynamic_rnn中用于预测
我想保存 LSTM 的最终状态 以便在恢复模型时将其包含在内并可用于预测 如下所述 当我使用时 保护程序仅了解最终状态tf assign 但是 这会引发错误 也将在下面解释 在训练期间 我总是将最终的 LSTM 状态反馈回网络 如中所述这个
python
machinelearning
tensorflow
LSTM
recurrentneuralnetwork
将 CNN 的输出传递给 BILSTM
我正在开发一个项目 其中我必须将 CNN 的输出传递给双向 LSTM 我创建了如下模型 但它抛出 不兼容 错误 请让我知道哪里出了问题以及如何解决这个问题 model Sequential model add Conv2D filters
python
tensorflow
Keras
LSTM
convneuralnetwork
Python - 基于 LSTM 的 RNN 需要 3D 输入?
我正在尝试构建一个基于 LSTM RNN 的深度学习网络 这是尝试过的 from keras models import Sequential from keras layers import Dense Dropout Activatio
python3x
Keras
LSTM
recurrentneuralnetwork
keraslayer
1
2
3
4
5
6
...19
»