(抱歉,如果这听起来有点天真)
我想看看里面的肉TensorFlowGradientDescent 的实现 - 亲自看看它们如何处理终止条件、步长自适应性等。我追踪了代码training_ops.apply_gradient_descent
但我找不到实现:(
TensorFlowOptimizer
接口,(其中GradientDescentOptimizer
实现)定义了最小化的单个步骤。终止条件或调整步长由用户实现。在MNIST 初学者教程中,终止条件是“1000 步后停止”,您可以在for i in range(1000)
loop
apply_gradient_descent(a,b,c)
是一个相乘的融合运算c
by b
并将其添加到a
。从 Python 包装器到 C++ 实现有一些额外的间接级别,详细信息请参见添加新操作方法,但作为一种捷径,您通常可以通过从蛇形命名法转换并搜索它来找到 C++ 实现,所以ApplyGradientDescent
在这种情况下。这导致实施张量流/核心/内核/training_ops.cc
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系:hwhale#tublm.com(使用前将#替换为@)