我设计了一个全连接 MLP,具有 2 个隐藏层和 1 个输出层。
如果我使用批量或小批量梯度下降,我会得到一个很好的学习曲线。
But a straight line while performing Stochastic Gradient Descent (violet)
我做错了什么?
根据我的理解,如果每个训练步骤只提供一个训练/学习示例,我会使用 Tensorflow 进行随机梯度下降,例如:
X = tf.placeholder("float", [None, amountInput],name="Input")
Y = tf.placeholder("float", [None, amountOutput],name="TeachingInput")
...
m, i = sess.run([merged, train_op], feed_dict={X:[input],Y:[label]})
其中输入是 10 分量向量,标签是 20 分量向量。
对于测试,我运行 1000 次迭代,每次迭代包含 50 个准备好的训练/学习示例之一。
我预计 nn 会过度拟合。但正如你所看到的,它没有学习:(
由于神经网络将在在线学习环境中执行,因此小批量或批量梯度下降不是一种选择。
感谢您的任何提示。