Python
Java
PHP
IOS
Android
Nodejs
JavaScript
Html5
Windows
Ubuntu
Linux
PyTorch:DecoderRNN:运行时错误:输入必须有 3 个维度,得到 2 个维度
我正在使用 PyTorch 构建 DecoderRNN 这是一个图像标题解码器 class DecoderRNN nn Module def init self embed size hidden size vocab size super
python3x
Pytorch
recurrentneuralnetwork
EncoderDecoder
TensorFlowdynamic_rnn状态
我的问题是关于 TensorFlow 方法tf nn dynamic rnn 它返回每个时间步的输出和最终状态 我想知道返回的最终状态是否是最大序列长度下的单元状态 或者是否由sequence length争论 为了更好地理解一个例子 我有
python
tensorflow
machinelearning
neuralnetwork
recurrentneuralnetwork
如何使用Tensorflow的PTB模型示例?
我正在尝试Tensorflow的rnn示例 一开始遇到一些问题 我可以运行示例来训练 ptb 现在我已经训练了一个模型 现在我该如何使用模型来创建句子 而不必每次都重新训练 我用类似的命令运行它python ptb word lm py d
python
python27
tensorflow
recurrentneuralnetwork
在 Tensorflow 中保存和恢复经过训练的 LSTM
我使用 BasicLSTMCell 训练了 LSTM 分类器 如何保存我的模型并恢复它以便在以后的分类中使用 我们发现了同样的问题 我们不确定内部变量是否已保存 我们发现您必须在创建 定义 BasicLSTMCell 之后创建保护程序 否则
tensorflow
recurrentneuralnetwork
LSTM
InvalidArgumentError:从形状为 [56,9] 的张量指定形状为 [60,9] 的列表
在运行我的模型一个时期后 它崩溃并显示以下错误消息 InvalidArgumentError 从形状为 56 9 的张量指定形状为 60 9 的列表 节点 TensorArrayUnstack TensorListFromTensor se
python
tensorflow
Keras
LSTM
recurrentneuralnetwork
为什么要为 tf.keras.layers.LSTM 设置 return_sequences=True 和 stateful=True ?
我正在学习tensorflow2 0并遵循tutorial 在里面rnn例如 我找到了代码 def build model vocab size embedding dim rnn units batch size model tf ker
tensorflow
Keras
LSTM
recurrentneuralnetwork
RNN:Keras框架中LSTM层的return_sequences有什么用
我在 RNN 工作 我有来自某个网 站的以下代码行 如果您观察到第二层没有 returnSequence 参数 我假设返回序列是强制性的 因为它应该返回序列 您能告诉我为什么没有定义吗 第一层LSTM regressor add LSTM
machinelearning
Keras
LSTM
recurrentneuralnetwork
«
1
2
3
4