一、背景:Bert与seq2seq任务的传统隔阂 Bert(Bidirectional Encoder Representations from Transformers)作为预训练语言模型的里程碑,凭借双向编码能力和Masked Language Model(MLM)预训练任务,在文本理解……