一、Transformer记忆瓶颈的技术背景与行业痛点 Transformer架构自2017年提出以来,凭借自注意力机制(Self-Attention)在自然语言处理(NLP)领域占据主导地位。然而,其核心缺陷——长序列处理效率低下逐渐成为制约……