报错1: RuntimeError: storage has wrong size: expected 768 got 2359296

报错2: Unable to load weights from pytorch checkpoint file

报错场景: 使用torch.nn.parallel.DistributedDataParallel进行单机多卡模型训练, 保存的bert模型在读取的时候报上述错误, 原因是保存模型的时候使用多线程保存, 猜想是多卡同时写入, 文件在保存过程中出了问题

解决办法: 保存模型的时候, 只在其中一卡上保存即可

上代码:

# 报错版本保存方式
# bert_model : 自己的bert模型
# output_dir : 保存的文件夹路径
model_to_save = bert_model.module if hasattr(bert_model, 'module') else bert_model
model_to_save.save_pretrained(output_dir)
tokenizer.save_pretrained(output_dir)
# 修改后的保存方式
# bert_model : 自己的bert模型
# output_dir : 保存的文件夹路径
import argparse
parser = argparse.ArgumentParser()
parser.add_argument('--local_rank', default=0, type=int, help='node rank for distributed training')
args = parser.parse_args()
if args.local_rank == 0:
  if hasattr(bert_model, 'module'):
    model_to_save = bert_model.module
    model_to_save.save_pretrained(output_dir)
    tokenizer.save_pretrained(output_dir)

Logo

有“AI”的1024 = 2048,欢迎大家加入2048 AI社区

更多推荐