Python
Java
PHP
IOS
Android
Nodejs
JavaScript
Html5
Windows
Ubuntu
Linux
使用 Keras、Tensorflow 进行多时间序列维度的 RNN 时间序列预测
我正在尝试在某些时间序列集上运行 RNN LSTM 网络 值得一提的是 时间序列正在分类 我有大约 600 个不同的时间序列 每个序列都有 930 个带有特征的时间步长 我已将数据结构化为 numpy 3D 数组 其结构如下 X 666 o
python
NumPy
machinelearning
Keras
recurrentneuralnetwork
在 Tensorflow 中混合前馈层和循环层?
有人能够在 Tensorflow 中混合前馈层和循环层吗 例如 输入 gt 转换 gt GRU gt 线性 gt 输出 我可以想象一个人可以用前馈层定义自己的单元 并且没有状态 然后可以使用 MultiRNNCell 函数进行堆叠 如下所示
python
tensorflow
recurrentneuralnetwork
gatedrecurrentunit
InvalidArgumentError:ConcatOp:输入的维度应该匹配
Tensorflow 1 7使用dynamic rnn时 一开始运行良好 但在第32步 当我运行代码时它发生变化 时 出现错误 当我使用较小的批次时 代码似乎可以运行更长时间 但是错误仍然弹出 只是无法弄清楚出了什么问题 from mapp
tensorflow
recurrentneuralnetwork
尝试理解 Pytorch 的 LSTM 实现
我有一个包含 1000 个示例的数据集 其中每个示例都有5特征 a b c d e 我想喂7LSTM 的示例 以便它预测第 8 天的特征 a 阅读 nn LSTM 的 Pytorchs 文档 我得出以下结论 input size 5 hid
machinelearning
deeplearning
LSTM
Pytorch
recurrentneuralnetwork
将有状态 LSTM 称为功能模型?
我有一个状态 LSTM 定义为顺序模型 model Sequential model add LSTM stateful True 后来 我将其用作功能模型 input 1 input 2 Input Input output 1 mode
python
machinelearning
neuralnetwork
Keras
recurrentneuralnetwork
如何使用 tf2 为 seq2seq 构建自定义双向编码器?
class Encoder tf keras Model def init self vocab size embedding dim enc units batch sz super Encoder self init self batc
recurrentneuralnetwork
tensorflow20
Encoder
Seq2Seq
Tensorflow动态RNN(LSTM):如何格式化输入?
我已获得这种格式的一些数据以及以下详细信息 person1 day1 feature1 feature2 featureN label person1 day2 feature1 feature2 featureN label person
python
tensorflow
LSTM
recurrentneuralnetwork
TFLearn
Tensorflow中GRU单元的解释?
以下是 Tensorflow 的代码GRUCell单元显示了当先前的隐藏状态与序列中的当前输入一起提供时获得更新的隐藏状态的典型操作 def call self inputs state scope None Gated recurrent
neuralnetwork
tensorflow
recurrentneuralnetwork
gatedrecurrentunit
张量流中的批量归一化
我注意到张量流的 api 中已经有批量归一化函数 但我不明白的一件事是如何更改训练和测试之间的程序 批量归一化在测试期间的行为与训练期间的行为不同 具体来说 在训练期间使用固定的均值和方差 某处有一些好的示例代码吗 我看到了一些 但是对于作
tensorflow
recurrentneuralnetwork
.fit() 层的 shuffle = 'batch' 参数如何在后台工作?
当我使用以下方法训练模型时 fit 层的参数 shuffle 预设为 True 假设我的数据集有 100 个样本 批量大小为 10 当我设置shuffle True然后 keras 首先随机选择样本 现在 100 个样本具有不同的顺序 根据
Keras
shuffle
LSTM
recurrentneuralnetwork
如何在keras中编写序列来对RNN进行排序?
我正在尝试编写一个序列来在 keras 中对 RNN 进行排序 我使用我从网络上了解到的内容编写了这个程序 我首先对文本进行标记 然后将文本转换为序列并填充以形成特征变量X 目标变量Y获得了第一次转移x向左然后填充它 最后 我将特征和目标变
python
neuralnetwork
Keras
recurrentneuralnetwork
sequencetosequence
Tensorflow:如何使用dynamic_rnn从LSTMCell获取中间细胞状态(c)?
默认情况下 函数dynamic rnn仅输出隐藏状态 称为m 对于每个时间点可以通过如下方式获得 cell tf contrib rnn LSTMCell 100 rnn outputs tf nn dynamic rnn cell inp
python
machinelearning
tensorflow
LSTM
recurrentneuralnetwork
Tensorflow将LSTM的最终状态保存在dynamic_rnn中用于预测
我想保存 LSTM 的最终状态 以便在恢复模型时将其包含在内并可用于预测 如下所述 当我使用时 保护程序仅了解最终状态tf assign 但是 这会引发错误 也将在下面解释 在训练期间 我总是将最终的 LSTM 状态反馈回网络 如中所述这个
python
machinelearning
tensorflow
LSTM
recurrentneuralnetwork
如何计算张量流中张量 A 沿张量 B 指定的权重的轴的加权平均值?
我正在尝试对 RNN 输出应用加权平均方案 RNN输出用张量表示A有维度 a b c 我可以简单地采取tf reduce mean A axis 1 得到张量C有维度 a c 但是 我想做张量的 加权平均值 A along axis 1 权
python
tensorflow
recurrentneuralnetwork
weightedaverage
Python - 基于 LSTM 的 RNN 需要 3D 输入?
我正在尝试构建一个基于 LSTM RNN 的深度学习网络 这是尝试过的 from keras models import Sequential from keras layers import Dense Dropout Activatio
python3x
Keras
LSTM
recurrentneuralnetwork
keraslayer
如何在 Tensorflow 中生成/读取 CTC 损失的稀疏序列标签?
从单词图像及其转录的列表中 我尝试创建和读取稀疏序列标签 例如tf nn ctc loss 用一个tf train slice input producer 避免 将预打包的训练数据序列化到磁盘中TFRecord format 的明显局限性
python
tensorflow
recurrentneuralnetwork
model.fit 上的尺寸数量错误
我正在尝试运行这个 SimpleRNN model add SimpleRNN init uniform output dim 1 input dim len pred frame columns model compile loss ms
python
Keras
recurrentneuralnetwork
张量流中 LSTM 的正则化
Tensorflow 提供了一个很好的 LSTM 包装器 rnn cell BasicLSTM num units forget bias 1 0 input size None state is tuple False activatio
neuralnetwork
tensorflow
LSTM
recurrentneuralnetwork
Keras 中的 Seq2Seq 双向编码器解码器
我正在尝试使用 Keras 实现 seq2seq 编码器 解码器 并在编码器上使用双向 lstm 如下所示 from keras layers import LSTM Bidirectional Input Concatenate from
neuralnetwork
Keras
LSTM
recurrentneuralnetwork
Seq2Seq
有状态 RNN 中随时间的反向传播
如果我在 Keras 中使用有状态 RNN 来处理长度为 N 的序列 分为 N 个部分 每个时间步骤单独处理 反向传播是如何处理的 它只影响最后一个时间步 还是反向传播整个序列 如果它不能传播到整个序列 有没有办法做到这一点 反向传播范围仅
neuralnetwork
Keras
backpropagation
recurrentneuralnetwork
1
2
3
4
»