一、技术背景与核心定位 Transformer架构作为当前自然语言处理(NLP)领域的基石,凭借自注意力机制(Self-Attention)实现了对序列中任意位置关系的建模,成为BERT、GPT等主流模型的核心。其设计初衷是解决RNN类……