从 <tensorflow.python.keras.optimizer_v2.learning_rate_schedule.CosineDecay> 对象获取学习率

问题描述

如何获得在每个 on_train_batch_begin 处更新的学习率值?

lr_decayed_fn = tf.keras.experimental.CosineDecay(initial_lr,decay_steps)
model.compile(optimizer=tf.keras.optimizers.SGD(learning_rate=lr_decayed_fn))

我试过这种方法

def on_train_batch_begin (self,batch,logs = None):
    lr = K.get_value(self.model.optimizer.lr)

但我得到 <tensorflow.python.keras.optimizer_v2.learning_rate_schedule.CosineDecay object at 0x7f ...>

解决方法

当您将函数设置为学习率或对象子类化 LearningRateScheduler 时,您需要使用当前训练步骤调用该函数(或 Callable)以获得学习率。您可以使用优化器的 iterations 属性获取当前的训练步骤。

class CustomCallback(tf.keras.callbacks.Callback):
    def __init__(self) -> None:
        super().__init__()

    def on_train_batch_begin(self,batch,logs=None):
        lr = tf.keras.backend.get_value(
            self.model.optimizer.lr(self.model.optimizer.iterations)
        )

相关问答

Selenium Web驱动程序和Java。元素在(x,y)点处不可单击。其...
Python-如何使用点“。” 访问字典成员?
Java 字符串是不可变的。到底是什么意思?
Java中的“ final”关键字如何工作?(我仍然可以修改对象。...
“loop:”在Java代码中。这是什么,为什么要编译?
java.lang.ClassNotFoundException:sun.jdbc.odbc.JdbcOdbc...