一、大模型技术基础解析 1.1 核心架构:Transformer的革命性突破 Transformer架构通过自注意力机制(Self-Attention)彻底改变了序列建模方式。与RNN/LSTM的递归处理不同,其并行计算特性使模型可处理超长序列(如……