问题描述
这是我的代码,
class model(torch.nn.Module):
def __init__(self,config):
super(model,self).__init__()
self.memory_matrix = torch.zeros((user_num,self.k,self.embedding_dim),device=self.device,requires_grad=False)
def forward(self,users,items):
for clicks in items:
# ...
self.memory_matrix[users] = self.memory_matrix[users] * (1 - z.unsqueeze(2) @ erase.unsqueeze(1)) \
+ z.unsqueeze(2) @ add.unsqueeze(1)
a = a * self.memory_matrix
该模型与推荐系统有关,并且为每个用户维护一个存储矩阵。我向模型提供用户历史记录点击,即包含用户交互项的序列。在处理用户的历史点击时,应根据当前点击更新存储矩阵。为此,我在__init__
函数中将存储矩阵初始化为张量,并在训练期间更新该存储矩阵。完成对整个历史记录单击的处理后,backward
函数将更新模型的参数。这就是问题所在,语句a = a * self.memory_matrix
显示a
的斜率取决于当时的存储矩阵,这意味着a
的斜率取决于存储矩阵的旧版本(例如,当循环执行一次时的存储矩阵),而不是存储矩阵的最终版本。这是因为在后续训练期间会更新内存矩阵。结果,autograd无法工作,因为它不存储旧版本的内存矩阵。
记忆矩阵始终是手工更新的,不需要计算梯度。
我发现tensorflow中的scatter_update
可以做到这一点,如何在Pytorch中实现呢?
解决方法
暂无找到可以解决该程序问题的有效方法,小编努力寻找整理中!
如果你已经找到好的解决方法,欢迎将解决方案带上本链接一起发送给小编。
小编邮箱:dio#foxmail.com (将#修改为@)