一、Transformer架构:大模型演进的基石 2017年《Attention Is All You Need》论文提出的Transformer架构,通过自注意力机制彻底改变了序列建模的范式。其核心创新体现在: 并行化能力突破:传统RNN的时序依赖导……