Check: self.optimizer.state
。这是通过 lr 进行优化并在优化过程中使用的。
从文档来看,lr 只是:
lr(float,可选):在 delta 之前缩放的系数
应用
参数(默认值:1.0)
https://pytorch.org/docs/stable/_modules/torch/optim/adadelta.html https://pytorch.org/docs/stable/_modules/torch/optim/adadelta.html
编辑:您可能会在 self.optimizer.state 值中找到 acc_delta 值,但您需要浏览该字典包含的字典:
dict_with_acc_delta = [self.optimizer.state[i] for i in self.optimizer.state.keys() if "acc_delta" in self.optimizer.state[i].keys()]
acc_deltas = [i["acc_delta"] for i in dict_with_acc_delta]
我有八层,acc_deltas 列表中元素的形状如下
[torch.Size([25088]),
torch.Size([25088]),
torch.Size([4096, 25088]),
torch.Size([4096]),
torch.Size([1024, 4096]),
torch.Size([1024]),
torch.Size([102, 1024]),
torch.Size([102])]