Python
Java
PHP
IOS
Android
Nodejs
JavaScript
Html5
Windows
Ubuntu
Linux
如何将 fit_generator 与分成批次的顺序数据一起使用?
我正在尝试为我的 Keras lstm 模型编写一个生成器 与 fit generator 方法一起使用 我的第一个问题是我的发电机应该返回什么 一批 一个序列 Keras 文档中的示例为每个数据条目返回 x y 但如果我的数据是连续的怎么
python
Keras
deeplearning
LSTM
recurrentneuralnetwork
TensorFlow - Saver.restore 未恢复所有参数
我训练了双向 LSTM 类型的 RNN 近 24 小时 由于误差波动 我决定在允许其继续训练之前减少学习量 由于模型在每个时期都使用 Saver save sess file 保存 因此我终止了训练 CTC 损失已最小化至大约 115 现在
tensorflow
recurrentneuralnetwork
神经机器翻译模型预测相差一
问题总结 在下面的示例中 我的 NMT 模型具有很高的损失 因为它正确预测target input代替target output Targetin 1 3 3 3 3 6 6 6 9 7 7 7 4 4 4 4 4 9 9 10 10 10
如何绘制 keras 实验的学习曲线?
我正在使用 keras 训练 RNN 并希望了解验证准确性如何随数据集大小变化 Keras 有一个名为val acc在其历史对象中 该对象在每个时期之后附加相应的验证集准确性 链接到谷歌群组中的帖子 https groups google
如何在 Tensorflow RNN 中构建嵌入层?
我正在构建一个 RNN LSTM 网络 根据作者的年龄对文本进行分类 二元分类 年轻 成人 看起来网络没有学习并突然开始过度拟合 Red train Blue validation 一种可能是数据表示不够好 我只是按频率对独特的单词进行排序
python
tensorflow
recurrentneuralnetwork
wordembedding
Tensorflow RNN 输入大小
我正在尝试使用张量流创建循环神经网络 我的代码是这样的 import tensorflow as tf rnn cell tf nn rnn cell GRUCell 3 inputs tf constant 0 1 dtype tf fl
tensorflow
recurrentneuralnetwork
gatedrecurrentunit
TensorFlow 嵌入查找
我正在尝试学习如何使用 TensorFlow 构建用于语音识别的 RNN 首先 我想尝试 TensorFlow 页面上提供的一些示例模型TF RNN https www tensorflow org versions master tuto
tensorflow
Word2Vec
recurrentneuralnetwork
languagemodel
张量流2.0中是否有cudnnLSTM或cudNNGRU替代方案
The CuDNNGRU in TensorFlow 1 0真的很快 但当我转向TensorFlow 2 0我找不到CuDNNGRU 简单的GRU真的很慢TensorFlow 2 0 有什么办法可以使用吗CuDNNGRU in Tensor
python
tensorflow
Keras
recurrentneuralnetwork
tensorflow20
ValueError:预期目标大小 (128, 44),得到 torch.Size([128, 100]),LSTM Pytorch
我想建立一个模型 根据前面的字符预测下一个字符 我已将文本拼接成长度 100 的整数序列 使用数据集和数据加载器 我的输入和目标变量的维度是 inputs dimension batch size sequence length In my
Pytorch
LSTM
recurrentneuralnetwork
如何确定 seq2seq 张量流 RNN 训练模型的最大批量大小
目前 我使用默认的 64 作为 seq2seq 张量流模型的批量大小 最大批量大小 层大小等是多少 我可以使用具有 12 GB RAM 的单个 Titan X GPU 和 Haswell E xeon 128GB RAM 输入数据被转换为嵌
machinelearning
tensorflow
GPU
recurrentneuralnetwork
TensorFlow:记住下一批的 LSTM 状态(有状态 LSTM)
给定一个经过训练的 LSTM 模型 我想对单个时间步执行推理 即seq length 1在下面的例子中 在每个时间步之后 需要记住下一个 批次 的内部 LSTM 记忆和隐藏 状态 在推理的一开始 内部 LSTM 状态init c init
python
tensorflow
LSTM
recurrentneuralnetwork
stateful
为什么我们要在 PyTorch 中“打包”序列?
我试图复制如何对 rnn 的可变长度序列输入使用打包但我想我首先需要理解为什么我们需要 打包 序列 我明白为什么我们 填充 它们 但为什么 打包 通过pack padded sequence 必要的 我也偶然发现了这个问题 下面是我的发现
deeplearning
Pytorch
recurrentneuralnetwork
tensor
zeropadding
LSTM/GRU 自动编码器收敛
Goal 尝试在多元时间序列数据集上运行 LSTM 自动编码器 X train 200 23 178 X val 100 23 178 X 测试 100 23 178 现在的情况 普通的自动编码器比简单的 LSTM AE 架构可以获得更好的
machinelearning
LSTM
recurrentneuralnetwork
autoencoder
在 Tensorflow 中重用 LSTM 的重用变量
我正在努力使RNN using LSTM 我做了LSTM模型 后面有两个DNN网络和一个回归输出层 我训练了我的数据 最终的训练损失约为0 009 然而 当我将模型应用于测试数据时 损失变为大约0 5 第 1 轮训练损失约为0 5 所以 我
tensorflow
recurrentneuralnetwork
LSTM
Pytorch - 运行时错误:尝试再次向后浏览图表,但缓冲区已被释放
我一直遇到这个错误 运行时错误 尝试再次向后浏览图形 但缓冲区已被释放 第一次向后调用时指定retain graph True 我在 Pytorch 论坛中搜索过 但仍然找不到我在自定义损失函数中做错了什么 我的模型是 nn GRU 这是我
python
deeplearning
Pytorch
recurrentneuralnetwork
Autograd
用于多元时间序列的 Keras 递归神经网络
我一直在阅读有关 Keras RNN 模型 LSTM 和 GRU 的内容 作者似乎主要关注语言数据或使用由先前时间步骤组成的训练实例的单变量时间序列 我的数据有点不同 我在 10 年里每年测量 100 000 人的 20 个变量作为输入数据
python
Keras
TimeSeries
recurrentneuralnetwork
TensorFlow:恢复 RNN 网络后损失猛增
环境信息 操作系统 Windows 7 64位 从预构建的 pip 安装的 Tensorflow 无 CUDA 1 0 1 Python 3 5 2 64 位 Problem 我在恢复网络 RNN 字符基础语言模型 时遇到问题 下面是具有相
tensorflow
recurrentneuralnetwork
languagemodel
如何确定RNN中神经元的数量?
我是 RNN 新手 并试图理解它们 由于它需要输入序列 那么神经元的数量应该与序列的大小相同 对吧 那么 如果我们有 10 个时间步长 因此有 10 个不同的输入 那么我们应该有 10 个神经元 对吗 另外 神经元的数量会随着时间的增加而增
machinelearning
Keras
recurrentneuralnetwork
拟合 RNN LSTM 模型时出错
我正在尝试使用以下代码创建用于二元分类的 RNN LSTM 模型 alldataset np loadtxt FinalKNEEALL txt delimiter num classes 2 num of sam alldataset sh
python3x
Keras
LSTM
recurrentneuralnetwork
MultiRNN 和 static_rnn 错误:维度必须相等,但分别为 256 和 129
我想构建一个 3 层的 LSTM 网络 这是代码 num layers 3 time steps 10 num units 128 n input 1 learning rate 0 001 n classes 1 x tf placeho
python
tensorflow
deeplearning
LSTM
recurrentneuralnetwork
«
1
2
3
4
»