问题描述
我正在尝试加载一次 SuperTransformer 模型,并在循环中多次对数据集执行预测 - 同时每次更改采样模型配置。
我使用 github.com/mit-han-lab/hardware-aware-transformers 中的 generate.py 文件在 WMT'14En-De 数据集上运行翻译。更改采样模型配置的代码部分是 generate.py 的第 67 行中的 model.set_sample_config(config)
。
基本上,我想要实现的是在具有不同 SubTransformer 配置的数据集上重复推理——同时只加载一次数据集和模型(尽可能减少第二次迭代的开销)。
我目前正在尝试实现以下修改后的代码,在 #Load ensemble 阶段之后使用 while 循环,并在每次迭代后更改 'config' 变量。
# Load ensemble
print('| loading model(s) from {}'.format(args.path))
models,_model_args = checkpoint_utils.load_model_ensemble(
args.path.split(':'),arg_overrides=eval(args.model_overrides),task=task,)
torch.manual_seed(args.seed)
#loop twice,change 'config' variable on second iteration to have different SubTransformer configuration
while i in range (0,2):
# Optimize ensemble for generation
for model in models:
if use_cuda:
model.cuda()
config = utils.get_subtransformer_config(args)
model.set_sample_config(config)
model.make_generation_fast_(
beamable_mm_beam_size=None if args.no_beamable_mm else args.beam,need_attn=args.print_alignment,)
但是,我收到以下错误:shape is invalid for input of size x
问题似乎与sequence_generator.py 中'lprobs' 变量的大小有关,其中第二次迭代时大小总是错误的。即使代码再次使用相同的 SubTransformer 配置循环,也会发生此错误。
我对 PyTorch 库和一般的机器学习相当陌生,因此我将不胜感激!谢谢。
解决方法
暂无找到可以解决该程序问题的有效方法,小编努力寻找整理中!
如果你已经找到好的解决方法,欢迎将解决方案带上本链接一起发送给小编。
小编邮箱:dio#foxmail.com (将#修改为@)