DDR爱好者之家 Design By 杰米

由于python内部的变量其实都是reference,而Tensorflow实现的时候也没有意义去判断输出是否是同一变量名,从而判定是否要新建一个Tensor用于输出。Tensorflow为了满足所有需求,定义了两个不同的函数:tf.add和tf.assign_add。从名字即可看出区别,累加应该使用tf.assign_add。同理的还有tf.assign_sub和tf.assign。

具体地,笔者需要一个iteration counter类似的变量,即每次使用一个batch更新参数之后都使得该变量加一,进而控制learning rate等参数来调节学习过程。

最初的实现如下:

a = tf.Variable(tf.zeros(1))
a = tf.add(a,tf.ones(1))

sess = tf.Session()
sess.run(tf.global_variable_initializer())
for i in range(1000):
  print(sess.run(a))

那因为第一行代码输出的a和第二行代码输出的a,虽然变量名相同,但是实质指向的变量以及空间都不同,每次输出的都是1。

更改后的代码则是如下:

a = tf.Variable(tf.zeros(1))
a = tf.assign_add(a,tf.ones(1))

sess = tf.Session()
sess.run(tf.global_variable_initializer())
for i in range(1000):
  print(sess.run(a))

以上这篇Tensorflow累加的实现案例就是小编分享给大家的全部内容了,希望能给大家一个参考,也希望大家多多支持。

DDR爱好者之家 Design By 杰米
广告合作:本站广告合作请联系QQ:858582 申请时备注:广告合作(否则不回)
免责声明:本站资源来自互联网收集,仅供用于学习和交流,请遵循相关法律法规,本站一切资源不代表本站立场,如有侵权、后门、不妥请联系本站删除!
DDR爱好者之家 Design By 杰米