Pytorch batchnorm1D,批处理大小为1

问题描述

我正在尝试实施二进制网络。并且正在使用带有自定义二值化层的简单感知器,如下所示

self.w = torch.nn.Parameter((torch.normal(0,1,size=(param['input_size'],param['hidden_size']))),requires_grad=False)        
self.fc1 = BinarizeLinear(param['hidden_size'],param['n_classes'])
self.bn = nn.Batchnorm1d(param['n_classes'])
self.softmax = nn.Logsoftmax()

但是,我希望它以1的批量大小进行训练。我尝试了Instancenorm,但是实例范数计算了Height和width轴上的均值和偏差。关于使用一批1进行训练时如何执行归一化的任何建议或想法,是否有任何变通办法,还是我必须制作一个自定义的归一化层?

作为一种解决方法,我尝试在fc1之后重塑前向输入中的输入,以重新调整输入的大小,以使它们通过pytorch的_check_dim方法

x = self.fc1(x)
x = x.reshape(param['batch_size'],x.shape[0],x.shape[1])
x = self.bn(x)

但是我得到了错误 RuntimeError: running_mean should contain 1 elements not 2 这是有道理的。我正在尝试解决问题,如果有人可以直接指导我实现的正确方法,我将不胜感激。

解决方法

暂无找到可以解决该程序问题的有效方法,小编努力寻找整理中!

如果你已经找到好的解决方法,欢迎将解决方案带上本链接一起发送给小编。

小编邮箱:dio#foxmail.com (将#修改为@)