一、Transformer架构的技术演进与核心优势 Transformer架构自2017年提出以来,凭借自注意力机制(Self-Attention)与并行化计算能力,已成为大语言模型(LLM)的主流技术底座。清华大学团队在《基于Transformer的……