警告:tensorflow:AutoGraph 无法转换 <function <lambda> at 0x7fca141a6d08> 并将按原样运行

问题描述

我实现了图像分类TFF的代码。 TFF 版本 0.18.0, 我写这个:

iterative_process = tff.learning.build_federated_averaging_process(model_fn,server_optimizer_fn=lambda: tf.keras.optimizers.SGD(learning_rate=1.0),client_optimizer_fn=lambda: tf.keras.optimizers.SGD(learning_rate=0.001))

state = iterative_process.initialize()

但我发现这个警告:

WARNING:tensorflow:AutoGraph Could not transform <function <lambda> at 0x7fca141a6d08> and will run it as-is.
Cause: Could not parse the source code of <function <lambda> at 0x7fca141a6d08>: found multiple deFinitions with identical signatures at the location. This error may be avoided by defining each lambda on a single line and with unique argument names.
Match 0:
(lambda : tf.keras.optimizers.SGD(learning_rate=1.0))

Match 1:
(lambda : tf.keras.optimizers.SGD(learning_rate=0.001))

To silence this warning,decorate the function with @tf.autograph.experimental.do_not_convert

那么请问我该如何避免这个警告。谢谢

解决方法

首先,这个警告对我来说似乎没有问题。 TFF 需要构造优化器的函数,以防这些优化器依赖于内部变量(例如 Adagrad 和 Adam,它们是有状态的并使用变量来跟踪预处理和动量项)——TFF 需要能够捕获这些变量的构造以确保正确代码可以在设备上运行,因此不需要签名来转换这些函数——Python 函数就足够了。

第二,我认为可以消除警告的一个简单选项是为优化器 fns 使用命名函数。也就是说,如果你使用类似


def server_optimizer_fn():
  return tf.keras.optimizers.SGD(learning_rate=1.)

def client_optimizer_fn():
  return tf.keras.optimizers.SGD(learning_rate=0.001)

iterative_process = tff.learning.build_federated_averaging_process(
    model_fn,server_optimizer_fn=server_optimizer_fn,client_optimizer_fn=client_optimizer_fn)

Autograph 不应再抱怨。

相关问答

Selenium Web驱动程序和Java。元素在(x,y)点处不可单击。其...
Python-如何使用点“。” 访问字典成员?
Java 字符串是不可变的。到底是什么意思?
Java中的“ final”关键字如何工作?(我仍然可以修改对象。...
“loop:”在Java代码中。这是什么,为什么要编译?
java.lang.ClassNotFoundException:sun.jdbc.odbc.JdbcOdbc...