在PyTorch中实现Seq2Seq时,可以通过对loss进行mask来处理变长序列。首先创建一个与目标序列长度相同的mask矩阵,将填充位置设为0,有效位置设为1。然后使用torch.where()函数将填充位置的loss替换为0,只计算有效……