一、Transformer架构的瓶颈与演进需求 自2017年Transformer架构提出以来,其自注意力机制(Self-Attention)和并行计算能力推动了自然语言处理(NLP)的跨越式发展。然而,随着模型规模扩大和任务复杂度提升,传统……